Rechercher dans ce blog

dimanche 31 juillet 2022

Compute unit


Computational Fluid_Dynamics_for_Phase_Change_Materials/Computational Fluid Dynamics for Phase Change Materials :
La modélisation et la simulation de la dynamique des fluides computationnelle (CFD) pour les matériaux à changement de phase (PCM) est une technique permettant d'analyser les performances et le comportement des PCM. Les modèles CFD ont réussi à étudier et à analyser la qualité de l'air, la ventilation naturelle et la ventilation stratifiée, le flux d'air initié par les forces de flottabilité et l'espace de température pour les systèmes intégrés aux PCM. Des formes simples comme des plaques plates, des cylindres ou des tubes annulaires, des ailettes, des macro- et micro-encapsulations avec des récipients de forme différente sont souvent modélisées dans des logiciels CFD à étudier. Généralement, les modèles CFD incluent généralement la modélisation de l'équation de Navier-Stokes moyenne (RANS) de Reynold et la simulation aux grandes échelles (LES). Les équations de conservation de la masse, de la quantité de mouvement et de l'énergie (Navier - Stokes) sont linéarisées, discrétisées et appliquées à des volumes finis pour obtenir une solution détaillée des distributions de champ de la pression, de la vitesse et de la température de l'air pour les deux espaces intérieurs intégrés aux PCM.

Géométrie computationnelle_(journal)/Géométrie computationnelle (journal) :
Computational Geometry, également connu sous le nom de Computational Geometry: Theory and Applications, est une revue mathématique à comité de lecture pour la recherche en géométrie computationnelle théorique et appliquée, ses applications, ses techniques, ainsi que la conception et l'analyse d'algorithmes géométriques. Tous les aspects de la géométrie computationnelle sont abordés, y compris les aspects numériques, théoriques des graphes et combinatoires, ainsi que les problèmes fondamentaux dans divers domaines d'application de la géométrie computationnelle : en infographie, reconnaissance de formes, traitement d'image, robotique, automatisation de la conception électronique, CAO/ CAM, et systèmes d'information géographique. La revue a été fondée en 1991 par Jörg-Rüdiger Sack et Jorge Urrutia. Il est indexé par Mathematical Reviews, Zentralblatt MATH, Science Citation Index et Current Contents/Engineering, Computing and Technology.
Infrastructure de calcul_pour_la_géodynamique/Infrastructure de calcul pour la géodynamique :
L'infrastructure computationnelle pour la géodynamique (CIG) est une organisation communautaire qui fait progresser les sciences de la Terre en développant et en diffusant des logiciels pour la géophysique et les domaines connexes. Il s'agit d'un effort de collaboration parrainé par la National Science Foundation pour améliorer la modélisation géodynamique et développer, soutenir et diffuser des logiciels open source pour la recherche en géodynamique et les communautés de l'enseignement supérieur. CIG est situé à l'Université de Californie, Davis, et est un consortium régi par ses membres avec 62 membres institutionnels américains et 15 affiliés internationaux.
Intelligence informatique_(journal)/Intelligence informatique (journal) :
Computational Intelligence est une revue scientifique à comité de lecture couvrant la recherche sur l'intelligence artificielle. Il a été créé en 1985 et est publié par Wiley-Blackwell. Depuis 2009, les rédacteurs en chef sont Ali Ghorbani et Evangelos Milios.
Computational Linguistics_(journal)/Computational Linguistics (journal):
Computational Linguistics est une revue académique trimestrielle en libre accès dans le domaine de la linguistique computationnelle. Il est publié par MIT Press pour l'Association for Computational Linguistics (ACL). La revue comprend des articles, des squibs et des critiques de livres. Il a été créé sous le nom de American Journal of Computational Linguistics en 1974 par David Hays et a été initialement publié uniquement sur microfiche jusqu'en 1978. George Heidorn l'a transformé en un journal imprimé en 1980, avec une publication trimestrielle. En 1984, la revue a obtenu son titre actuel. Elle est en libre accès depuis 2009. Selon le Journal Citation Reports, la revue a un facteur d'impact de 1,319 en 2017.
Matériaux computationnels_Science/Science computationnelle des matériaux :
Computational Materials Science est une revue scientifique mensuelle à comité de lecture publiée par Elsevier. Il a été créé en octobre 1992. Le rédacteur en chef est Susan Sinnott. La revue couvre la modélisation informatique et la recherche pratique pour les matériaux avancés et leurs applications.
Mécanique informatique_(journal)/Mécanique informatique (journal) :
Computational Mechanics est une revue scientifique mensuelle axée sur la mécanique computationnelle. Elle est publiée par Springer et a été fondée en 1986. La revue rapporte des recherches originales en mécanique computationnelle. Il se concentre sur les domaines qui impliquent l'application rationnelle de la mécanique, des mathématiques et des méthodes numériques dans la pratique de l'ingénierie moderne. Les domaines couverts comprennent la mécanique des solides et des structures, la dynamique des systèmes multicorps, la modélisation constitutive, la réponse aux déformations inélastiques et finies et le contrôle structurel. La revue couvre également la mécanique des fluides et les interactions fluide-structure, la biomécanique, les écoulements à surface libre et à deux fluides, l'aérodynamique, la mécanique des ruptures et l'intégrité structurelle, la mécanique multi-échelles, les méthodes sans particules et sans maillage, les phénomènes de transport et le transfert de chaleur. Enfin, la revue publie des méthodes variationnelles modernes en mécanique générale. Selon les Journal Citation Reports, la revue a un facteur d'impact de 4,014 en 2020.
Optimisation informatique_et_applications/Optimisation informatique et applications :
Computational Optimization and Applications est une revue académique à comité de lecture publiée par Springer Science+Business Media. La revue se concentre sur l'analyse et le développement d'algorithmes informatiques et de technologies de modélisation pour l'optimisation. Il couvre également la programmation linéaire, la théorie de la complexité computationnelle, la différenciation automatique, les approximations et l'analyse des erreurs, la programmation paramétrique, l'analyse de sensibilité et les sciences de gestion.
RAM de calcul/RAM de calcul :
La RAM de calcul (C-RAM) est une mémoire à accès aléatoire avec des éléments de traitement intégrés sur la même puce. Cela permet à la C-RAM d'être utilisée comme ordinateur SIMD. Il peut également être utilisé pour utiliser plus efficacement la bande passante mémoire dans une puce mémoire.
Computational Resource_for_Drug_Discovery/Computational Resource for Drug Discovery :
Computational Resources for Drug Discovery (CRDD) est l'un des modules silico importants de l'Open Source for Drug Discovery (OSDD). Le portail Web du CRDD offre des ressources informatiques liées à la découverte de médicaments sur une plateforme unique. Il fournit des ressources informatiques aux chercheurs en conception de médicaments assistée par ordinateur, un forum de discussion et des ressources pour maintenir Wikipédia lié à la découverte de médicaments, prédire les inhibiteurs et prédire la propriété ADME-Tox des molécules. L'un des principaux objectifs du CRDD est de promouvoir l'ouverture logiciels sources dans le domaine de la chimioinformatique et de la pharmacoinformatique.
Science computationnelle_%26_Discovery/Science computationnelle et découverte :
Computational Science & Discovery était une revue scientifique à comité de lecture couvrant la science computationnelle en physique, chimie, biologie et sciences appliquées. Le rédacteur en chef était Nathan A Baker (Pacific Northwest National Laboratory), qui a succédé à Anthony Mezzacappa (Oak Ridge National Laboratory) en 2011. La revue a été créée en 2008 et a cessé de paraître en 2015, mais tous les articles resteront disponibles en ligne.
Computational Science_Graduate_Fellowship/Computational Science Graduate Fellowship :
Le programme de bourses d'études supérieures en sciences computationnelles (CSGF) est un programme de bourses d'études supérieures hautement sélectif parrainé par le département américain de l'énergie et administré par le Krell Institute. Lancé en 1990, il attribue des bourses de quatre ans à des étudiants américains diplômés poursuivant des études supérieures dans tous les domaines des sciences informatiques.
Spectroscopie computationnelle_en_sciences_naturelles_et_ingénierie/spectroscopie computationnelle en sciences naturelles et en génie :
La spectroscopie informatique en sciences naturelles et en génie (COSINE) est un réseau de formation innovant Marie Skłodowska-Curie. dans le domaine de la chimie théorique et computationnelle, axé sur la spectroscopie computationnelle. Le développement d'outils théoriques est l'objectif principal des projets : des codes de calcul basés sur la théorie des structures électroniques pour l'étude de la photochimie organique et pour la simulation d'expériences spectroscopiques. Il fait partie du programme cadre de financement de la recherche Horizon 2020
Statistiques computationnelles_%26_Data_Analysis/Statistiques computationnelles et analyse des données :
Computational Statistics & Data Analysis est une revue scientifique mensuelle à comité de lecture couvrant la recherche et les applications des statistiques computationnelles et de l'analyse des données. La revue a été créée en 1983 et est la revue officielle de l'Association internationale de calcul statistique, une section de l'Institut international de statistique.
Statistiques computationnelles_(journal)/Statistiques computationnelles (journal) :
Computational Statistics est une revue scientifique trimestrielle à comité de lecture qui publie des applications et des recherches dans le domaine des statistiques informatiques, ainsi que des critiques de matériel, de logiciels et de livres. Selon les Journal Citation Reports, la revue a un facteur d'impact de 0,482 en 2012. Il a été créé en 1986 sous le nom de Computational Statistics Quarterly et a obtenu son titre actuel en 1992. Le journal est publié par Springer Science+Business Media et le rédacteur en chef est Yuichi Mori (Okayama University of Science).
Aéroacoustique computationnelle/Aéroacoustique computationnelle :
L'aéroacoustique computationnelle est une branche de l'aéroacoustique qui vise à analyser la génération de bruit par des écoulements turbulents par des méthodes numériques.
Anatomie computationnelle/Anatomie computationnelle :
L'anatomie computationnelle est un domaine interdisciplinaire de la biologie axé sur l'investigation quantitative et la modélisation de la variabilité des formes anatomiques. Il implique le développement et l'application de méthodes mathématiques, statistiques et d'analyse de données pour la modélisation et la simulation de structures biologiques. Le domaine est défini au sens large et comprend les fondements de l'anatomie, des mathématiques appliquées et des mathématiques pures, de l'apprentissage automatique, de la mécanique computationnelle, de la science computationnelle, de l'imagerie biologique, des neurosciences, de la physique, des probabilités et des statistiques; il a également des liens étroits avec la mécanique des fluides et la mécanique géométrique. De plus, il complète des domaines interdisciplinaires plus récents comme la bioinformatique et la neuroinformatique dans le sens où son interprétation utilise des métadonnées dérivées des modalités d'imagerie du capteur d'origine (dont l'imagerie par résonance magnétique est un exemple). Il se concentre sur les structures anatomiques en cours d'imagerie, plutôt que sur les dispositifs d'imagerie médicale. Elle s'apparente dans l'esprit à l'histoire de la linguistique computationnelle, une discipline qui se concentre sur les structures linguistiques plutôt que sur le capteur agissant comme support de transmission et de communication. En anatomie computationnelle , le groupe de difféomorphisme est utilisé pour étudier différents systèmes de coordonnées via des transformations de coordonnées générées via les vitesses lagrangiennes et eulériennes d'écoulement dans R 3 {\ displaystyle {\ mathbb {R} } ^ {3}} . Les flux entre coordonnées en anatomie computationnelle sont contraints d'être des flux géodésiques satisfaisant le principe de moindre action pour l'énergie cinétique du flux. L'énergie cinétique est définie par une norme de lissage de Sobolev avec strictement plus de deux dérivées généralisées intégrables au carré pour chaque composante de la vitesse d'écoulement, ce qui garantit que les écoulements dans R 3 {\displaystyle \mathbb {R} ^{3}} sont des difféomorphismes. Cela implique également que l'impulsion de forme difféomorphique prise ponctuellement satisfaisant l'équation d'Euler-Lagrange pour les géodésiques est déterminée par ses voisins à travers des dérivées spatiales sur le champ de vitesse. Cela sépare la discipline du cas des fluides incompressibles pour lesquels la quantité de mouvement est une fonction ponctuelle de la vitesse. L'anatomie computationnelle croise l'étude des variétés riemanniennes et l'analyse globale non linéaire, où les groupes de difféomorphismes sont au centre des préoccupations. Les théories émergentes de la forme à haute dimension sont au cœur de nombreuses études en anatomie computationnelle, tout comme les questions émergeant du domaine naissant des statistiques de forme. Les structures métriques en anatomie computationnelle sont liées dans l'esprit à la morphométrie, à la différence que l'anatomie computationnelle se concentre sur un espace de dimensions infinies de systèmes de coordonnées transformé par un difféomorphisme, d'où l'utilisation centrale de la terminologie difféomorphométrie, l'étude de l'espace métrique des systèmes de coordonnées via des difféomorphismes.
Théorie_de_l'organisation_informatique et_mathématique/Théorie de l'organisation informatique et mathématique :
Computational and Mathematical Organization Theory est une revue scientifique trimestrielle en double aveugle à comité de lecture couvrant le domaine de la théorie des organisations. La revue est publiée par Springer Science+Business Media. Il a été créé en 1995 et initialement publié par Kluwer. Les rédacteurs en chef fondateurs étaient William A. Wallace ( Rensselaer Polytechnic Institute ) et Kathleen Carley ( Carnegie Mellon University ). Carley a continué en tant que co-rédactrice en chef, un rôle qu'elle partage actuellement avec Terrill L. Frantz (Harrisburg University of Science and Technology).
Computational and_Structural_Biotechnology_Journal/Computational and Structural Biotechnology Journal :
Computational and Structural Biotechnology Journal est une revue scientifique en libre accès à comité de lecture, publiée par Elsevier pour le compte du Research Network of Computational and Structural Biotechnology, couvrant tous les aspects de la biologie computationnelle et structurale. Il a été créé en 2012 par Gupta Udatha et le rédacteur en chef est Gianni Panagiotou (Institut Hans Knöll).
Neurosciences_informatiques et_systémiques/Neurosciences computationnelles et systémiques :
Computational and Systems Neuroscience (COSYNE ou CoSyNe) est une conférence scientifique annuelle pour l'échange d'approches expérimentales et théoriques/computationnelles des problèmes de neurosciences systémiques. C'est une réunion importante pour les neuroscientifiques computationnels où de nombreux niveaux d'approches sont discutés. Il s'agit d'une réunion à piste unique avec des sessions orales et des affiches et attire environ 800 à 900 participants de diverses disciplines, notamment les neurosciences, l'informatique et l'apprentissage automatique. Jusqu'en 2018, la réunion principale de 3 jours se tenait à Salt Lake City, suivie de deux jours d'ateliers à Snowbird, Utah. En 2018, COSYNE a déménagé à Denver (3 jours) et Breckenridge (2 jours).
Chimie computationnelle et_théorique/Chimie computationnelle et théorique :
Computational and Theoretical Chemistry est une revue scientifique à comité de lecture publiée par Elsevier. Il a été créé en 1985 sous le nom de Journal of Molecular Structure: THEOCHEM, un spin-off du Journal of Molecular Structure. Il a obtenu son nom actuel en 2011 et couvre la structure moléculaire en chimie théorique.
Archéologie computationnelle/Archéologie computationnelle :
L'archéologie computationnelle décrit des méthodes analytiques informatisées pour l'étude du comportement humain à long terme et de l'évolution comportementale. Comme pour d'autres sous-disciplines qui ont préfixé «computationnel» à leur nom (par exemple, la biologie computationnelle, la physique computationnelle et la sociologie computationnelle), le terme est réservé aux méthodes (généralement mathématiques) qui ne pourraient pas être exécutées de manière réaliste sans l'aide d'un ordinateur. . L'archéologie computationnelle peut inclure l'utilisation de systèmes d'information géographique (SIG), en particulier lorsqu'elle est appliquée à des analyses spatiales telles que l'analyse du champ de vision et l'analyse du chemin le moins coûteux, car ces approches sont suffisamment complexes en termes de calcul pour qu'elles soient extrêmement difficiles, voire impossibles à mettre en œuvre sans le traitement. puissance d'un ordinateur. De même, certaines formes de modélisation statistique et mathématique et la simulation informatique du comportement humain et de l'évolution comportementale à l'aide d'outils logiciels tels que Swarm ou Repast seraient également impossibles à calculer sans aide informatique. L'application d'une variété d'autres formes de logiciels complexes et sur mesure pour résoudre des problèmes archéologiques, tels que la perception humaine et le mouvement dans des environnements bâtis à l'aide de logiciels tels que le programme Space Syntax de l'University College London, relève également du terme «archéologie computationnelle». L'acquisition, la documentation et l'analyse des découvertes archéologiques lors des fouilles et dans les musées est un domaine important ayant l'analyse de la poterie comme l'un des principaux sujets. Dans ce domaine, les techniques d'acquisition 3D comme le balayage de lumière structurée (SLS), les méthodes photogrammétriques comme la "structure à partir du mouvement" (SfM), la tomodensitométrie ainsi que leurs combinaisons fournissent de grands ensembles de données de nombreux objets pour la recherche sur la poterie numérique. Ces techniques sont de plus en plus intégrées dans le flux de travail in situ des fouilles. Le sous-projet autrichien du Corpus vasorum antiquorum (CVA) est déterminant pour la recherche numérique sur les découvertes dans les musées. L'archéologie computationnelle est également connue sous le nom d'"informatique archéologique" (Burenhult 2002, Huggett et Ross 2004) ou "archéoinformatique" (parfois abrégée en "IA ", mais à ne pas confondre avec l'intelligence artificielle).
Astrophysique computationnelle/Astrophysique computationnelle :
L'astrophysique computationnelle fait référence aux méthodes et aux outils informatiques développés et utilisés dans la recherche en astrophysique. Comme la chimie computationnelle ou la physique computationnelle, il s'agit à la fois d'une branche spécifique de l'astrophysique théorique et d'un domaine interdisciplinaire reposant sur l'informatique, les mathématiques et la physique au sens large. L'astrophysique computationnelle est le plus souvent étudiée dans le cadre d'un programme de mathématiques appliquées ou d'astrophysique au niveau du doctorat. Les domaines bien établis de l'astrophysique utilisant des méthodes de calcul comprennent la magnétohydrodynamique, le transfert radiatif astrophysique, la dynamique stellaire et galactique et la dynamique des fluides astrophysiques. Un domaine récemment développé avec des résultats intéressants est la relativité numérique.
Audiologie computationnelle/Audiologie computationnelle :
L'audiologie computationnelle est une branche de l'audiologie qui utilise des techniques mathématiques et informatiques pour améliorer les traitements cliniques et la compréhension scientifique du système auditif. L'audiologie computationnelle est étroitement liée à la médecine computationnelle, qui utilise des modèles quantitatifs pour développer des méthodes améliorées de diagnostic et de traitement des maladies générales.
Analyse_de_scène_auditive_informatique/Analyse de scènes auditives informatique :
L'analyse de scène auditive computationnelle (CASA) est l'étude de l'analyse de scène auditive par des moyens informatiques. Essentiellement, les systèmes CASA sont des systèmes « d'écoute automatique » qui visent à séparer les mélanges de sources sonores de la même manière que les auditeurs humains le font. CASA diffère du domaine de la séparation aveugle des signaux en ce qu'il est (au moins dans une certaine mesure) basé sur les mécanismes du système auditif humain et n'utilise donc pas plus de deux enregistrements au microphone d'un environnement acoustique. C'est lié au problème du cocktail.
Biologie computationnelle/Biologie computationnelle :
La biologie computationnelle fait référence à l'utilisation de l'analyse de données, de la modélisation mathématique et des simulations informatiques pour comprendre les systèmes et les relations biologiques. À l'intersection de l'informatique, de la biologie et du big data, le domaine possède également des bases en mathématiques appliquées, en chimie et en génétique. Il diffère de l'informatique biologique, un sous-domaine de l'ingénierie informatique qui utilise la bio-ingénierie pour construire des ordinateurs.
Computational chemical_methods_in_solid-state_physics/Méthodes chimiques computationnelles en physique du solide :
Les méthodes chimiques computationnelles en physique du solide suivent la même approche que pour les molécules, mais avec deux différences. Premièrement, la symétrie translationnelle du solide doit être utilisée, et deuxièmement, il est possible d'utiliser des fonctions de base complètement délocalisées telles que des ondes planes comme alternative aux fonctions de base moléculaires centrées sur l'atome. La structure électronique d'un cristal est en général décrite par une structure de bande, qui définit les énergies des orbitales électroniques pour chaque point de la zone de Brillouin. Les calculs ab initio et semi-empiriques donnent des énergies orbitales, ils peuvent donc être appliqués aux calculs de structure de bande. Puisqu'il est long de calculer l'énergie d'une molécule, il est encore plus long de les calculer pour toute la liste des points de la zone de Brillouin. Les calculs peuvent utiliser la méthode Hartree – Fock, certaines méthodes post-Hartree – Fock, en particulier la théorie des perturbations de Møller – Plesset au second ordre (MP2) et la théorie fonctionnelle de la densité (DFT).
Chimie computationnelle/Chimie computationnelle :
La chimie computationnelle est une branche de la chimie qui utilise la simulation informatique pour aider à résoudre des problèmes chimiques. Il utilise des méthodes de chimie théorique, incorporées dans des programmes informatiques, pour calculer les structures et les propriétés des molécules, des groupes de molécules et des solides. Elle est essentielle car, hormis des résultats relativement récents concernant l'ion moléculaire hydrogène (cation dihydrogène, voir les références pour plus de détails), le problème quantique à plusieurs corps ne peut être résolu analytiquement, encore moins sous forme fermée. Bien que les résultats informatiques complètent normalement les informations obtenues par les expériences chimiques, ils peuvent dans certains cas prédire des phénomènes chimiques jusqu'alors inobservés. Il est largement utilisé dans la conception de nouveaux médicaments et matériaux. Des exemples de telles propriétés sont la structure (c. pour collision avec d'autres particules. Les méthodes utilisées couvrent à la fois des situations statiques et dynamiques. Dans tous les cas, le temps de calcul et les autres ressources (telles que la mémoire et l'espace disque) augmentent rapidement avec la taille du système étudié. Ce système peut être une molécule, un groupe de molécules ou un solide. Les méthodes de chimie computationnelle vont de très approximatives à très précises; ce dernier n'est généralement réalisable que pour les petits systèmes. Les méthodes ab initio sont entièrement basées sur la mécanique quantique et les constantes physiques de base. D'autres méthodes sont dites empiriques ou semi-empiriques car elles utilisent des paramètres empiriques supplémentaires. Les approches ab initio et semi-empiriques impliquent des approximations. Celles-ci vont des formes simplifiées des équations des premiers principes qui sont plus faciles ou plus rapides à résoudre, aux approximations limitant la taille du système (par exemple, les conditions aux limites périodiques), aux approximations fondamentales des équations sous-jacentes qui sont nécessaires pour parvenir à toute solution. à eux du tout. Par exemple, la plupart des calculs ab initio font l'approximation de Born-Oppenheimer, ce qui simplifie grandement l'équation de Schrödinger sous-jacente en supposant que les noyaux restent en place pendant le calcul. En principe, les méthodes ab initio finissent par converger vers la solution exacte des équations sous-jacentes lorsque le nombre d'approximations est réduit. En pratique, cependant, il est impossible d'éliminer toutes les approximations et une erreur résiduelle subsiste inévitablement. L'objectif de la chimie computationnelle est de minimiser cette erreur résiduelle tout en gardant les calculs traitables. Dans certains cas, les détails de la structure électronique sont moins importants que le comportement dans l'espace de phase à long terme des molécules. C'est le cas dans les études conformationnelles des protéines et de la thermodynamique de liaison protéine-ligand. Des approximations classiques de la surface d'énergie potentielle sont utilisées, généralement avec des champs de force de mécanique moléculaire, car elles sont moins intensives en calcul que les calculs électroniques, pour permettre des simulations plus longues de la dynamique moléculaire. De plus, la chimie informatique utilise des méthodes encore plus empiriques (et moins coûteuses en termes de calcul) comme l'apprentissage automatique basé sur les propriétés physicochimiques. Un problème typique en chimioinformatique est de prédire l'affinité de liaison des molécules médicamenteuses à une cible donnée. D'autres problèmes incluent la prédiction de la spécificité de liaison, les effets hors cible, la toxicité et les propriétés pharmacocinétiques.
Cognition computationnelle/Cognition computationnelle :
La cognition computationnelle (parfois appelée science cognitive computationnelle ou psychologie computationnelle) est l'étude de la base computationnelle de l'apprentissage et de l'inférence par modélisation mathématique, simulation informatique et expériences comportementales. En psychologie, c'est une approche qui développe des modèles informatiques basés sur des résultats expérimentaux. Il cherche à comprendre les fondements de la méthode humaine de traitement de l'information. Très tôt, les scientifiques cognitifs computationnels ont cherché à ramener et à créer une forme scientifique de la psychologie de Brentano.
Complexité de calcul/Complexité de calcul :
En informatique, la complexité de calcul ou simplement la complexité d'un algorithme est la quantité de ressources nécessaires pour l'exécuter. Une attention particulière est accordée aux besoins en temps et en mémoire. La complexité d'un problème est la complexité des meilleurs algorithmes permettant de résoudre le problème. L'étude de la complexité d'algorithmes explicitement donnés est appelée analyse d'algorithmes, tandis que l'étude de la complexité de problèmes est appelée théorie de la complexité computationnelle. Les deux domaines sont étroitement liés, car la complexité d'un algorithme est toujours une limite supérieure à la complexité du problème résolu par cet algorithme. De plus, pour concevoir des algorithmes efficaces, il est souvent fondamental de comparer la complexité d'un algorithme spécifique à la complexité du problème à résoudre. De plus, dans la plupart des cas, la seule chose connue sur la complexité d'un problème est qu'elle est inférieure à la complexité des algorithmes connus les plus efficaces. Par conséquent, il existe un grand chevauchement entre l'analyse des algorithmes et la théorie de la complexité. Comme la quantité de ressources nécessaires pour exécuter un algorithme varie généralement avec la taille de l'entrée, la complexité est généralement exprimée sous la forme d'une fonction n → f(n), où n est la taille de l'entrée et f(n) est soit la la complexité du pire cas (le maximum de la quantité de ressources nécessaires sur toutes les entrées de taille n) ou la complexité du cas moyen (la moyenne de la quantité de ressources sur toutes les entrées de taille n). La complexité temporelle est généralement exprimée comme le nombre d'opérations élémentaires requises sur une entrée de taille n, où les opérations élémentaires sont supposées prendre un temps constant sur un ordinateur donné et ne changent que d'un facteur constant lorsqu'elles sont exécutées sur un ordinateur différent. La complexité spatiale est généralement exprimée comme la quantité de mémoire requise par un algorithme sur une entrée de taille n.
Complexité_de_calcul_des_opérations_mathématiques/Complexité de calcul des opérations mathématiques :
Les tableaux suivants répertorient la complexité de calcul de divers algorithmes pour les opérations mathématiques courantes. Ici, la complexité fait référence à la complexité temporelle de l'exécution des calculs sur une machine de Turing multibande. Voir la notation grand O pour une explication de la notation utilisée. Remarque : En raison de la variété des algorithmes de multiplication, M ( n ) {\displaystyle M(n)} ci-dessous représente la complexité de l'algorithme de multiplication choisi.
Complexité de calcul_de_multiplication_de_matrice/Complexité de calcul de la multiplication matricielle :
En informatique théorique, la complexité de calcul de la multiplication matricielle dicte la rapidité avec laquelle l'opération de multiplication matricielle peut être effectuée. Les algorithmes de multiplication matricielle sont un sous-programme central dans les algorithmes théoriques et numériques pour l'algèbre linéaire numérique et l'optimisation, donc trouver le bon temps que cela devrait prendre est d'une importance pratique majeure. L'application directe de la définition mathématique de la multiplication matricielle donne un algorithme qui nécessite n3 opérations sur le terrain pour multiplier deux n × n matrices sur ce champ (Θ(n3) en notation grand O). Étonnamment, il existe des algorithmes qui offrent de meilleurs temps d'exécution que ce simple "algorithme de manuel scolaire". Le premier à être découvert fut l'algorithme de Strassen, conçu par Volker Strassen en 1969 et souvent appelé "multiplication matricielle rapide". Le nombre optimal d'opérations de terrain nécessaires pour multiplier deux matrices carrées n × n jusqu'à des facteurs constants est encore inconnu. C'est une question ouverte majeure en informatique théorique. Depuis décembre 2020, l'algorithme de multiplication matricielle avec la meilleure complexité asymptotique s'exécute en temps O (n2,3728596), donné par Josh Alman et Virginia Vassilevska Williams. Cependant, cette amélioration et des améliorations similaires à Strassen ne sont pas utilisées dans la pratique, car ce sont des algorithmes galactiques : le coefficient constant caché par la notation Big O est si grand qu'ils ne valent la peine que pour les matrices trop grandes pour être gérées sur les ordinateurs actuels. .
Théorie_de la complexité computationnelle/Théorie de la complexité computationnelle :
En informatique théorique, la théorie de la complexité computationnelle se concentre sur la classification des problèmes de calcul en fonction de leur utilisation des ressources et sur la relation entre ces classes. Un problème de calcul est une tâche résolue par un ordinateur. Un problème de calcul peut être résolu par l'application mécanique d'étapes mathématiques, comme un algorithme. Un problème est considéré comme intrinsèquement difficile si sa solution nécessite des ressources importantes, quel que soit l'algorithme utilisé. La théorie formalise cette intuition, en introduisant des modèles mathématiques de calcul pour étudier ces problèmes et en quantifiant leur complexité de calcul, c'est-à-dire la quantité de ressources nécessaires pour les résoudre, telles que le temps et le stockage. D'autres mesures de complexité sont également utilisées, telles que la quantité de communication (utilisée dans la complexité de la communication), le nombre de portes dans un circuit (utilisé dans la complexité du circuit) et le nombre de processeurs (utilisé dans le calcul parallèle). L'un des rôles de la théorie de la complexité computationnelle est de déterminer les limites pratiques de ce que les ordinateurs peuvent et ne peuvent pas faire. Le problème P versus NP, l'un des sept problèmes du prix du millénaire, est dédié au domaine de la complexité computationnelle. Les domaines étroitement liés de l'informatique théorique sont l'analyse des algorithmes et la théorie de la calculabilité. Une distinction clé entre l'analyse des algorithmes et la théorie de la complexité computationnelle est que la première est consacrée à l'analyse de la quantité de ressources nécessaires à un algorithme particulier pour résoudre un problème, tandis que la seconde pose une question plus générale sur tous les algorithmes possibles qui pourraient être utilisés pour résoudre le même problème. Plus précisément, la théorie de la complexité computationnelle tente de classer les problèmes qui peuvent ou ne peuvent pas être résolus avec des ressources restreintes de manière appropriée. À son tour, imposer des restrictions sur les ressources disponibles est ce qui distingue la complexité computationnelle de la théorie de la calculabilité : cette dernière théorie demande quels types de problèmes peuvent, en principe, être résolus de manière algorithmique.
Créativité computationnelle/Créativité computationnelle :
La créativité computationnelle (également connue sous le nom de créativité artificielle, créativité mécanique, informatique créative ou calcul créatif) est une entreprise multidisciplinaire qui se situe à l'intersection des domaines de l'intelligence artificielle, de la psychologie cognitive, de la philosophie et des arts. L'objectif de la créativité computationnelle est de modéliser, simuler ou reproduire la créativité à l'aide d'un ordinateur, pour atteindre l'une des nombreuses fins suivantes : Construire un programme ou un ordinateur capable de créativité au niveau humain. Mieux comprendre la créativité humaine et formuler une perspective algorithmique sur le comportement créatif chez l'homme. Concevoir des programmes qui peuvent améliorer la créativité humaine sans nécessairement être eux-mêmes créatifs. Le domaine de la créativité informatique s'intéresse aux problèmes théoriques et pratiques de l'étude de la créativité. Un travail théorique sur la nature et la définition correcte de la créativité est effectué en parallèle avec un travail pratique sur la mise en œuvre de systèmes qui font preuve de créativité, un volet de travail informant l'autre. La forme appliquée de la créativité informatique est connue sous le nom de synthèse médiatique.
Criminologie computationnelle/Criminologie computationnelle :
La criminologie informatique est un domaine interdisciplinaire qui utilise des méthodes informatiques pour définir formellement les concepts de criminologie, améliorer notre compréhension des phénomènes complexes et générer des solutions aux problèmes connexes.
Cybernétique computationnelle/Cybernétique computationnelle :
La cybernétique computationnelle est l'intégration de la cybernétique et des techniques d'intelligence computationnelle. Bien que le terme cybernétique soit entré dans le lexique technique dans les années 1940 et 1950, il a d'abord été utilisé de manière informelle comme nom populaire dans les années 1960, lorsqu'il a été associé aux ordinateurs, à la robotique, à l'intelligence artificielle et à la science-fiction. La promesse initiale de la cybernétique était qu'elle révolutionnerait les biologies mathématiques (un terme général qui inclut certains types d'IA) en utilisant la sémantique en boucle fermée plutôt que les mathématiques en boucle ouverte pour décrire et contrôler les systèmes vivants et les comportements des processus biologiques. Il est juste de dire que cet objectif idéaliste du programme reste généralement non réalisé. Alors que les traitements «philosophiques» de la cybernétique sont courants, en particulier dans les biosciences, la cybernétique computationnelle n'a pas réussi à gagner du terrain dans l'ingénierie traditionnelle et l'enseignement supérieur. Cela rend ses réalisations spécifiques d'autant plus remarquables. Feldman et Dyer (indépendamment) ont découvert le véritable mécanisme de la gouvernance motrice somatique. Cette théorie, appelée 'théorie du point d'équilibre' par Feldman [1], et 'néocybernétique' par Dyer [2] démystifie complètement le concept de copie d'efférence. Alors que la cybernétique s'intéresse principalement à l'étude des systèmes de contrôle, la cybernétique computationnelle se concentre sur leur fonctionnement automatique (complexe, autonome, flexible, adaptatif). De plus, la cybernétique computationnelle couvre non seulement les systèmes mécaniques, mais aussi biologiques (vivants), sociaux et économiques. Pour atteindre cet objectif, il utilise des recherches issues des domaines de la théorie de la communication, du traitement du signal, des technologies de l'information, de la théorie du contrôle, de la théorie des systèmes adaptatifs, de la théorie des systèmes complexes (théorie des jeux et recherche opérationnelle). L'IEEE, une organisation professionnelle pour l'avancement de la technologie, a organisé deux conférences internationales axées sur la cybernétique computationnelle en 2008 et 2013.
Économie computationnelle/Économie computationnelle :
L'économie computationnelle est une discipline de recherche interdisciplinaire qui implique l'informatique, l'économie et les sciences de gestion. Ce sujet englobe la modélisation informatique des systèmes économiques. Certains de ces domaines sont uniques, tandis que d'autres ont établi des domaines de l'économie en permettant une analyse de données robuste et des solutions à des problèmes qui seraient difficiles à rechercher sans ordinateurs et méthodes numériques associées. Les méthodes informatiques ont été appliquées dans divers domaines de la recherche économique, y compris mais pas se limitant à : Économétrie : approches non paramétriques, approches semi-paramétriques et apprentissage automatique. Modélisation de systèmes dynamiques : optimisation, modélisation d'équilibre général stochastique dynamique et modélisation à base d'agents.
Électromagnétique computationnelle/Électromagnétique computationnelle :
Électromagnétisme computationnel (CEM), computatEarth, Astroid,10987654321#tdw10/10/1981,10/10/2024électrodynamique ou modélisation électromagnétique est le processus de modélisation de l'interaction des champs électromagnétiques avec des objets physiques et l'environnement. Cela implique généralement l'utilisation de programmes informatiques pour calculer des solutions approximatives aux équations de Maxwell afin de calculer les performances de l'antenne, la compatibilité électromagnétique, la section efficace du radar et la propagation des ondes électromagnétiques lorsqu'elles ne sont pas dans l'espace libre. Un grand sous-domaine est celui des programmes informatiques de modélisation d'antennes, qui calculent le diagramme de rayonnement et les propriétés électriques des antennes radio, et sont largement utilisés pour concevoir des antennes pour des applications spécifiques.
Ingénierie informatique/Ingénierie informatique :
La science et l'ingénierie computationnelles (CSE) sont une discipline relativement nouvelle qui traite du développement et de l'application de modèles et de simulations informatiques, souvent couplés à un calcul haute performance, pour résoudre des problèmes physiques complexes découlant de l'analyse et de la conception d'ingénierie (ingénierie informatique). en tant que phénomènes naturels (science informatique). Le CSE a été décrit comme le "troisième mode de découverte" (après la théorie et l'expérimentation). Dans de nombreux domaines, la simulation informatique est essentielle aux entreprises et à la recherche. La simulation informatique offre la possibilité d'entrer dans des domaines inaccessibles à l'expérimentation traditionnelle ou dans lesquels la réalisation d'enquêtes empiriques traditionnelles est d'un coût prohibitif. Le CSE ne doit pas être confondu avec l'informatique pure, ni avec le génie informatique, bien qu'un large domaine du premier soit utilisé dans le CSE (par exemple, certains algorithmes, structures de données, programmation parallèle, calcul haute performance) et que certains problèmes du second puissent être modélisé et résolu avec les méthodes CSE (comme domaine d'application). Il est généralement offert en tant que programme de maîtrise ou de doctorat.
Épidémiologie computationnelle/Épidémiologie computationnelle :
L'épidémiologie computationnelle est un domaine multidisciplinaire qui utilise des techniques issues de l'informatique, des mathématiques, de la science de l'information géographique et de la santé publique pour mieux comprendre les enjeux centraux de l'épidémiologie tels que la propagation des maladies ou l'efficacité d'une intervention de santé publique.
Épigénétique computationnelle/Épigénétique computationnelle :
L'épigénétique computationnelle utilise des méthodes statistiques et la modélisation mathématique dans la recherche épigénétique. En raison de l'explosion récente des ensembles de données d'épigénome, les méthodes informatiques jouent un rôle croissant dans tous les domaines de la recherche épigénétique.
Épistémologie computationnelle/Épistémologie computationnelle :
L'épistémologie computationnelle est une sous-discipline de l'épistémologie formelle qui étudie la complexité intrinsèque des problèmes inductifs pour des agents idéaux et délimités par le calcul. En bref, l'épistémologie computationnelle est à l'induction ce que la théorie de la récursivité est à la déduction.
Finance computationnelle/Finance computationnelle :
La finance computationnelle est une branche de l'informatique appliquée qui traite des problèmes d'intérêt pratique en finance. Certaines définitions légèrement différentes sont l'étude des données et des algorithmes actuellement utilisés en finance et les mathématiques des programmes informatiques qui réalisent des modèles ou des systèmes financiers. La finance computationnelle met l'accent sur les méthodes numériques pratiques plutôt que sur les preuves mathématiques et se concentre sur les techniques qui s'appliquent directement aux analyses économiques. C'est un domaine interdisciplinaire entre la finance mathématique et les méthodes numériques. Deux domaines majeurs sont le calcul efficace et précis des justes valeurs des titres financiers et la modélisation de séries chronologiques stochastiques.
Computational fluid_dynamics/Computational fluid dynamics :
La dynamique des fluides computationnelle (CFD) est une branche de la mécanique des fluides qui utilise l'analyse numérique et les structures de données pour analyser et résoudre des problèmes impliquant des écoulements de fluides. Les ordinateurs sont utilisés pour effectuer les calculs nécessaires pour simuler l'écoulement libre du fluide et l'interaction du fluide (liquides et gaz) avec des surfaces définies par des conditions aux limites. Avec les supercalculateurs à grande vitesse, de meilleures solutions peuvent être obtenues et sont souvent nécessaires pour résoudre les problèmes les plus importants et les plus complexes. Les recherches en cours produisent des logiciels qui améliorent la précision et la vitesse de scénarios de simulation complexes tels que les écoulements transsoniques ou turbulents. La validation initiale d'un tel logiciel est généralement effectuée à l'aide d'appareils expérimentaux tels que des souffleries. De plus, l'analyse analytique ou empirique d'un problème particulier effectuée précédemment peut être utilisée à des fins de comparaison. Une validation finale est souvent effectuée à l'aide d'essais à grande échelle, tels que des essais en vol. La CFD est appliquée à un large éventail de problèmes de recherche et d'ingénierie dans de nombreux domaines d'études et industries, y compris l'aérodynamique et l'analyse aérospatiale, l'hypersonique, la simulation météorologique, les sciences naturelles et l'ingénierie environnementale, la conception et l'analyse de systèmes industriels, l'ingénierie biologique, les écoulements de fluides et la chaleur. transfert, analyse du moteur et de la combustion et effets visuels pour les films et les jeux.
Gène computationnel/Gène computationnel :
Un gène computationnel est un automate moléculaire composé d'une partie structurelle et d'une partie fonctionnelle ; et sa conception est telle qu'il pourrait fonctionner dans un environnement cellulaire. La partie structurelle est un gène naturel, qui est utilisé comme squelette pour coder l'entrée et les transitions de l'automate (Fig. 1A). Les caractéristiques conservées d'un gène structurel (par exemple, le site de liaison à l'ADN polymérase, les codons d'initiation et d'arrêt et les sites d'épissage) servent de constantes du gène computationnel, tandis que les régions codantes, le nombre d'exons et d'introns, la position des codons d'initiation et d'arrêt codon, et les variables théoriques des automates (symboles, états et transitions) sont les paramètres de conception du gène computationnel. Les constantes et les paramètres de conception sont liés par plusieurs contraintes logiques et biochimiques (par exemple, les variables théoriques des automates codés ne doivent pas être reconnues comme des jonctions d'épissage). Les entrées de l'automate sont des marqueurs moléculaires donnés par des molécules d'ADN simple brin (ssDNA). Ces marqueurs signalent un phénotype moléculaire aberrant (par exemple cancérigène) et activent l'auto-assemblage du gène fonctionnel. Si l'entrée est acceptée, la sortie code pour une molécule d'ADN double brin (ADNdb), un gène fonctionnel qui devrait être intégré avec succès dans la machinerie de transcription et de traduction cellulaire produisant une protéine de type sauvage ou un anti-médicament (Fig. 1B). Sinon, une entrée rejetée s'assemblera en une molécule partiellement d'ADN double brin qui ne pourra pas être traduite.
Génomique computationnelle/Génomique computationnelle :
La génomique computationnelle fait référence à l'utilisation de l'analyse computationnelle et statistique pour déchiffrer la biologie à partir des séquences du génome et des données connexes, y compris les séquences d'ADN et d'ARN ainsi que d'autres données « post-génomiques » (c. , comme les puces à ADN génomique). Ceux-ci, en combinaison avec des approches informatiques et statistiques pour comprendre la fonction des gènes et l'analyse d'association statistique, ce domaine est également souvent appelé génétique/génomique computationnelle et statistique. En tant que telle, la génomique computationnelle peut être considérée comme un sous-ensemble de la bioinformatique et de la biologie computationnelle, mais en mettant l'accent sur l'utilisation de génomes entiers (plutôt que de gènes individuels) pour comprendre les principes de la façon dont l'ADN d'une espèce contrôle sa biologie au niveau moléculaire et au-delà. Avec l'abondance actuelle d'ensembles de données biologiques massifs, les études informatiques sont devenues l'un des moyens les plus importants de découverte biologique.
Géométrie computationnelle/Géométrie computationnelle :
La géométrie computationnelle est une branche de l'informatique consacrée à l'étude des algorithmes qui peuvent être énoncés en termes de géométrie. Certains problèmes purement géométriques découlent de l'étude des algorithmes géométriques computationnels, et ces problèmes sont également considérés comme faisant partie de la géométrie computationnelle. Alors que la géométrie computationnelle moderne est un développement récent, c'est l'un des plus anciens domaines de l'informatique avec une histoire remontant à l'Antiquité. La complexité computationnelle est au cœur de la géométrie computationnelle, avec une grande importance pratique si les algorithmes sont utilisés sur de très grands ensembles de données contenant des dizaines ou des centaines de millions de points. Pour de tels ensembles, la différence entre O(n2) et O(n log n) peut être la différence entre les jours et les secondes de calcul. Le principal moteur du développement de la géométrie computationnelle en tant que discipline a été les progrès de l'infographie et de la conception et de la fabrication assistées par ordinateur (CAO / FAO), mais de nombreux problèmes de géométrie computationnelle sont de nature classique et peuvent provenir de la visualisation mathématique. D'autres applications importantes de la géométrie computationnelle comprennent la robotique (problèmes de planification de mouvement et de visibilité), les systèmes d'information géographique (SIG) (localisation et recherche géométriques, planification d'itinéraire), la conception de circuits intégrés (conception et vérification de la géométrie IC), l'ingénierie assistée par ordinateur (IAO) (génération de maillage) et la vision par ordinateur (reconstruction 3D). Les principales branches de la géométrie computationnelle sont : La géométrie computationnelle combinatoire, également appelée géométrie algorithmique, qui traite les objets géométriques comme des entités discrètes. Un livre précurseur sur le sujet par Preparata et Shamos date la première utilisation du terme "géométrie computationnelle" dans ce sens en 1975. La géométrie computationnelle numérique, également appelée géométrie de la machine, conception géométrique assistée par ordinateur (CAGD) ou modélisation géométrique, qui traite principalement de la représentation d'objets du monde réel sous des formes adaptées aux calculs informatiques dans les systèmes CAD / CAM. Cette branche peut être considérée comme un développement ultérieur de la géométrie descriptive et est souvent considérée comme une branche de l'infographie ou de la CAO. Le terme "géométrie computationnelle" dans ce sens est utilisé depuis 1971. Bien que la plupart des algorithmes de géométrie computationnelle aient été développés (et soient en cours de développement) pour les ordinateurs électroniques, certains algorithmes ont été développés pour les ordinateurs non conventionnels (par exemple, les ordinateurs optiques).
Géophysique computationnelle/Géophysique computationnelle :
La géophysique computationnelle est le domaine d'étude qui utilise tout type de calculs numériques pour générer et analyser des modèles de systèmes géophysiques complexes. Il peut être considéré comme une extension, ou un sous-domaine, à la fois de la physique computationnelle et de la géophysique. Ces dernières années, la puissance de calcul, la disponibilité des données et les capacités de modélisation se sont toutes améliorées de manière exponentielle, faisant de la géophysique computationnelle une discipline plus peuplée. En raison de la grande taille de calcul de nombreux problèmes géophysiques, un calcul haute performance peut être nécessaire pour gérer l'analyse. Les applications de modélisation de la géophysique computationnelle comprennent la modélisation atmosphérique, la modélisation océanique, les modèles de circulation générale et la modélisation géologique. Outre la modélisation, certains problèmes de télédétection relèvent de la géophysique computationnelle tels que la tomographie, les problèmes inverses et la reconstruction 3D.
Théorie_informatique_des_groupes/Théorie_informatique_des_groupes :
En mathématiques, la théorie computationnelle des groupes est l'étude des groupes au moyen d'ordinateurs. Il s'agit de concevoir et d'analyser des algorithmes et des structures de données pour calculer des informations sur des groupes. Le sujet a suscité de l'intérêt car pour de nombreux groupes intéressants (y compris la plupart des groupes sporadiques), il n'est pas pratique d'effectuer des calculs à la main. Les algorithmes importants de la théorie computationnelle des groupes comprennent : l'algorithme de Schreier-Sims pour trouver l'ordre d'un groupe de permutation l'algorithme de Todd-Coxeter et l'algorithme de Knuth-Bendix pour l'énumération des cosets l'algorithme de remplacement de produit pour trouver des éléments aléatoires d'un groupeDeux systèmes d'algèbre informatique importants (CAS) utilisés pour la théorie des groupes sont GAP et Magma. Historiquement, d'autres systèmes tels que CAS (pour la théorie des caractères) et Cayley (un prédécesseur de Magma) étaient importants. Parmi les réalisations du domaine, citons : l'énumération complète de tous les groupes finis d'ordre inférieur à 2000 le calcul des représentations pour tous les groupes sporadiques
Dureté informatique_hypothèse/Hypothèse de dureté informatique :
Dans la théorie de la complexité informatique , une hypothèse de dureté informatique est l'hypothèse selon laquelle un problème particulier ne peut pas être résolu efficacement (où efficacement signifie généralement «en temps polynomial»). On ne sait pas comment prouver la dureté (inconditionnelle) pour essentiellement tout problème utile. Au lieu de cela, les informaticiens s'appuient sur des réductions pour relier formellement la difficulté d'un problème nouveau ou compliqué à une hypothèse de dureté de calcul concernant un problème mieux compris. Les hypothèses de dureté de calcul sont d'une importance particulière en cryptographie. Un objectif majeur de la cryptographie est de créer des primitives cryptographiques avec une sécurité démontrable. Dans certains cas, les protocoles cryptographiques s'avèrent avoir une sécurité théorique de l'information ; le pad unique est un exemple courant. Cependant, la sécurité théorique de l'information ne peut pas toujours être atteinte ; dans de tels cas, les cryptographes se rabattent sur la sécurité informatique. En gros, cela signifie que ces systèmes sont sécurisés en supposant que tous les adversaires sont limités en termes de calcul, comme tous les adversaires le sont en pratique. Les hypothèses de dureté de calcul sont également utiles pour guider les concepteurs d'algorithmes : un algorithme simple est peu susceptible de réfuter une hypothèse de dureté de calcul bien étudiée telle que P ≠ NP.
Intelligence_heuristique_informatique/Intelligence heuristique informatique :
L'intelligence heuristique computationnelle (CHI) fait référence à des techniques de programmation spécialisées dans l'intelligence computationnelle (également appelée intelligence artificielle ou IA). Ces techniques ont pour objectif explicite d'éviter les problèmes de complexité, également appelés problèmes NP-difficiles, en utilisant des techniques de type humain. Ils sont mieux résumés comme l'utilisation de méthodes basées sur des exemples (heuristiques), plutôt que de méthodes basées sur des règles (algorithmes). Par conséquent, le terme est distinct de l'intelligence algorithmique computationnelle plus conventionnelle, ou GOFAI. Un exemple de technique CHI est le principe de spécificité de codage de Tulving et Thompson. En général, les principes CHI sont des techniques de résolution de problèmes utilisées par des personnes, plutôt que programmées dans des machines. C'est en attirant l'attention sur cette distinction clé que l'usage de ce terme se justifie dans un domaine déjà rempli de néologismes déroutants. Notez que les systèmes juridiques de toutes les sociétés humaines modernes utilisent à la fois des heuristiques (généralisations de cas) à partir de dossiers de procès individuels ainsi que des statuts légiférés (règles) comme guides réglementaires. Une autre approche récente pour éviter les problèmes de complexité consiste à utiliser le contrôle par rétroaction plutôt que la modélisation par anticipation comme paradigme de résolution de problèmes. Cette approche a été appelée cybernétique computationnelle, car (a) le terme « computationnel » est associé aux techniques de programmation informatique conventionnelles qui représentent un modèle stratégique, compilé ou prédictif du problème, et (b) le terme « cybernétique » est associé à les techniques d'exploitation de système conventionnelles qui représentent un modèle tactique, interprété ou de rétroaction du problème. Bien sûr, les programmes réels et les problèmes réels contiennent à la fois des composants d'anticipation et de rétroaction. Un exemple concret qui illustre ce point est celui de la cognition humaine, qui implique clairement à la fois des flux et des hiérarchies d'informations perceptives (ascendantes, rétroactives, orientées capteurs) et conceptuelles (descendantes, anticipatrices, orientées moteur). L'ingénieur en intelligence artificielle doit choisir entre la résolution de problèmes mathématiques et cybernétiques et les paradigmes de conception de machines. Ce n'est pas un problème de codage (langage de programme), mais concerne la compréhension de la relation entre les paradigmes de programmation déclarative et procédurale. La grande majorité des professionnels STEM n'ont jamais l'opportunité de concevoir ou de mettre en œuvre des solutions purement cybernétiques. Lorsqu'ils sont poussés, la plupart des intervenants rejetteront l'importance de toute différence en disant que tout code peut de toute façon être réduit à un modèle mathématique. Malheureusement, non seulement cette croyance est fausse, mais elle échoue le plus spectaculairement dans de nombreux scénarios d'IA. Les modèles mathématiques ne sont pas indépendants du temps, mais de par leur nature même ils sont pré-calculés, c'est-à-dire par anticipation. Dyer [2012] et Feldman [2004] ont indépendamment étudié le plus simple de tous les paradigmes de gouvernance somatique, à savoir le contrôle d'un membre articulé simple par un seul muscle fléchisseur. Ils ont constaté qu'il est impossible de déterminer les forces à partir des positions des membres - par conséquent, le problème ne peut pas avoir de solution mathématique pré-calculée (anticipation). Au lieu de cela, un signal de polarisation de commande descendante modifie le niveau de rétroaction de seuil dans la boucle sensorimotrice, par exemple la boucle formée par les nerfs afférents et efférents, modifiant ainsi le soi-disant «point d'équilibre» du système articulaire muscle fléchisseur / coude. Un aperçu de l'arrangement révèle que les postures globales et la position des membres sont commandées en termes d'anticipation, en utilisant des déplacements globaux (codage commun), les forces nécessaires étant calculées localement par des boucles de rétroaction. Cette méthode de gouvernance des unités sensorimotrices, basée sur ce qu'Anatol Feldman appelle la théorie du "point d'équilibre", est formellement équivalente à un servomécanisme tel que le "régulateur de vitesse" d'une voiture.
Historique des calculs/Histoire des calculs :
L'histoire computationnelle (à ne pas confondre avec l'histoire informatique), parfois aussi appelée histoinformatique, est un domaine multidisciplinaire qui étudie l'histoire par l'apprentissage automatique et d'autres approches informatiques axées sur les données.
Modélisation_humaine informatique/Modélisation humaine informatique :
La modélisation humaine informatique est une science informatique interdisciplinaire qui relie les divers domaines de l'intelligence artificielle, des sciences cognitives et de la vision par ordinateur à l'apprentissage automatique, aux mathématiques et à la psychologie cognitive. La modélisation humaine computationnelle met l'accent sur les descriptions de l'humain pour la recherche et les applications de l'IA.
Fantôme_humain informatique/Fantôme humain informatique :
Les fantômes humains informatiques sont des modèles du corps humain utilisés dans l'analyse informatisée. Depuis les années 1960, la communauté des sciences radiologiques a développé et appliqué ces modèles pour les études de dosimétrie des rayonnements ionisants. Ces modèles sont devenus de plus en plus précis en ce qui concerne la structure interne du corps humain. Au fur et à mesure que l'informatique évoluait, les fantômes aussi. Passer de fantômes basés sur de simples équations quadratiques à des fantômes voxélisés, basés sur des images médicales réelles du corps humain, a été une étape majeure. Les modèles les plus récents sont basés sur des mathématiques plus avancées, telles que la spline B rationnelle non uniforme (NURBS) et les maillages polygonaux, qui permettent des fantômes 4D où les simulations peuvent avoir lieu non seulement dans un espace tridimensionnel mais aussi dans le temps. Les fantômes ont été développés pour une grande variété d'êtres humains, des enfants aux adolescents en passant par les adultes, hommes et femmes, ainsi que les femmes enceintes. Avec une telle variété de fantômes, de nombreux types de simulations peuvent être exécutés, de la dose reçue des procédures d'imagerie médicale à la médecine nucléaire. Au fil des ans, les résultats de ces simulations ont créé un assortiment de normes qui ont été adoptées dans les recommandations de la Commission internationale de protection radiologique (CIPR).
Humour informatique/Humour informatique :
L'humour informatique est une branche de la linguistique informatique et de l'intelligence artificielle qui utilise des ordinateurs dans la recherche sur l'humour. C'est un domaine relativement nouveau, avec la première conférence dédiée organisée en 1996.
Imagerie computationnelle/Imagerie computationnelle :
L'imagerie computationnelle est le processus de formation indirecte d'images à partir de mesures à l'aide d'algorithmes qui reposent sur une quantité importante de calculs. Contrairement à l'imagerie traditionnelle, les systèmes d'imagerie computationnelle impliquent une intégration étroite du système de détection et du calcul afin de former les images d'intérêt. La disponibilité omniprésente de plates-formes informatiques rapides (telles que les processeurs multicœurs et les GPU), les progrès des algorithmes et du matériel de détection moderne se traduisent par des systèmes d'imagerie dotés de capacités considérablement améliorées. Les systèmes d'imagerie computationnelle couvrent un large éventail d'applications, notamment la microscopie computationnelle, l'imagerie tomographique, l'IRM, l'imagerie par ultrasons, la photographie computationnelle, le radar à synthèse d'ouverture (SAR), l'imagerie sismique, etc. L'intégration de la détection et du calcul dans les systèmes d'imagerie computationnelle permet d'accéder informations qui n'étaient pas possibles autrement. Par exemple : une seule image radiographique ne révèle pas l'emplacement précis de la fracture, mais un scanner qui fonctionne en combinant plusieurs images radiographiques peut déterminer l'emplacement précis d'une image en 3D. Une image de caméra typique ne peut pas imager les coins. Cependant, en concevant une configuration qui implique l'envoi d'impulsions lumineuses rapides, l'enregistrement du signal reçu et l'utilisation d'un algorithme, les chercheurs ont démontré les premières étapes de la construction d'un tel système. Les systèmes d'imagerie informatique permettent également aux concepteurs de systèmes de surmonter certaines limitations matérielles de l'optique et les capteurs (résolution, bruit, etc.) en relevant les défis du domaine informatique. Certains exemples de tels systèmes comprennent l'imagerie diffractive cohérente, l'imagerie à ouverture codée et la super-résolution d'image.
Immunologie computationnelle/Immunologie computationnelle :
Dans le milieu universitaire, l'immunologie computationnelle est un domaine scientifique qui englobe les approches génomiques et bioinformatiques à haut débit de l'immunologie. L'objectif principal du domaine est de convertir les données immunologiques en problèmes informatiques, de résoudre ces problèmes à l'aide d'approches mathématiques et informatiques, puis de convertir ces résultats en interprétations immunologiquement significatives.
Indiscernabilité informatique/Indiscernabilité informatique :
En complexité computationnelle et en cryptographie, deux familles de distributions sont impossibles à distinguer par calcul si aucun algorithme efficace ne peut faire la différence entre elles, sauf avec une probabilité négligeable.
Informatique computationnelle/Informatique computationnelle :
L'informatique computationnelle est un sous-domaine de l'informatique qui met l'accent sur les problèmes de conception de solutions informatiques plutôt que sur son infrastructure sous-jacente. L'informatique computationnelle peut également être interprétée comme l'utilisation de méthodes computationnelles dans les sciences de l'information.
Intelligence computationnelle/Intelligence computationnelle :
L'expression intelligence computationnelle (IC) fait généralement référence à la capacité d'un ordinateur à apprendre une tâche spécifique à partir de données ou d'observations expérimentales. Même s'il est communément considéré comme un synonyme de soft computing, il n'existe toujours pas de définition communément acceptée de l'intelligence computationnelle. En règle générale, l'intelligence computationnelle est un ensemble de méthodologies et d'approches computationnelles inspirées de la nature pour résoudre des problèmes complexes du monde réel auxquels la modélisation mathématique ou traditionnelle peut être inutile pour plusieurs raisons : les processus peuvent être trop complexes pour un raisonnement mathématique, ils peuvent contenir des incertitudes au cours du processus, ou le processus peut simplement être de nature stochastique. En effet, de nombreux problèmes de la vie réelle ne peuvent pas être traduits en langage binaire (valeurs uniques de 0 et 1) pour que les ordinateurs puissent les traiter. L'intelligence computationnelle apporte donc des solutions à ces problèmes. Les méthodes utilisées sont proches du mode de raisonnement humain, c'est-à-dire qu'elles utilisent des connaissances inexactes et incomplètes, et qu'elles sont capables de produire des actions de contrôle de manière adaptative. CI utilise donc une combinaison de cinq principales techniques complémentaires. La logique floue qui permet à l'ordinateur de comprendre le langage naturel, les réseaux de neurones artificiels qui permettent au système d'apprendre des données expérientielles en fonctionnant comme le biologique, l'informatique évolutive, qui est basée sur le processus de sélection naturelle, la théorie de l'apprentissage et les méthodes probabilistes qui aide à gérer l'imprécision de l'incertitude. À l'exception de ces grands principes, les approches actuellement populaires incluent des algorithmes d'inspiration biologique tels que l'intelligence en essaim et les systèmes immunitaires artificiels, qui peuvent être considérés comme faisant partie du calcul évolutif, du traitement d'images, de l'exploration de données, du traitement du langage naturel et de l'artificiel. l'intelligence, qui tend à être confondue avec l'intelligence computationnelle. Mais bien que l'intelligence computationnelle (CI) et l'intelligence artificielle (IA) poursuivent des objectifs similaires, il existe une distinction claire entre elles. L'intelligence computationnelle est donc une façon de se comporter comme des êtres humains. En effet, la caractéristique « d'intelligence » est généralement attribuée aux humains. Plus récemment, de nombreux produits et articles se revendiquent également "intelligents", un attribut qui est directement lié au raisonnement et à la prise de décision.
Irréductibilité computationnelle/Irréductibilité computationnelle :
L'irréductibilité computationnelle est l'une des principales idées proposées par Stephen Wolfram dans son livre A New Kind of Science.
Journalisme informatique/Journalisme informatique :
Le journalisme informatique peut être défini comme l'application de l'informatique aux activités du journalisme telles que la collecte d'informations, l'organisation, la création de sens, la communication et la diffusion d'informations d'actualité, tout en respectant les valeurs du journalisme telles que l'exactitude et la vérifiabilité. Le domaine s'appuie sur des aspects techniques de l'informatique, notamment l'intelligence artificielle, l'analyse de contenu (PNL, NLG, vision, audition), la visualisation, la personnalisation et les systèmes de recommandation, ainsi que des aspects de l'informatique sociale et des sciences de l'information.
Computational knowledge_economy/Computational knowledge economy :
L'économie de la connaissance computationnelle est une économie « où la valeur est dérivée de la génération automatisée de connaissances. Le terme a été inventé par Conrad Wolfram pour décrire l'extension de l'économie du savoir causée par l'accès omniprésent au calcul automatisé. Wolfram soutient que "la chaîne de valeur de la connaissance est en train de changer. La question n'est pas de savoir si vous avez des connaissances mais de savoir comment en tirer de nouvelles connaissances, en appliquant presque toujours la puissance de calcul pour vous aider."
Droit informatique/Droit informatique :
Le droit informatique est la branche de l'informatique juridique concernée par l'automatisation du raisonnement juridique. Ce qui distingue les systèmes de droit informatique des autres instances de technologie juridique est leur autonomie, c'est-à-dire la capacité de répondre à des questions juridiques sans apport supplémentaire d'experts juridiques humains. Bien qu'il existe de nombreuses applications possibles du droit informatique, l'objectif principal du travail dans le domaine aujourd'hui est la gestion de la conformité, c'est-à-dire le développement et le déploiement de systèmes informatiques capables d'évaluer, de faciliter ou d'imposer la conformité aux règles et réglementations. Certains systèmes de ce type existent déjà. ImpôtRapide en est un bon exemple. Et le potentiel est particulièrement important aujourd'hui en raison des avancées technologiques récentes - y compris la prédominance d'Internet dans l'interaction humaine et la prolifération des systèmes informatiques embarqués (tels que les téléphones intelligents, les voitures autonomes et les robots). Il existe également des applications qui n'impliquent pas de lois gouvernementales. La réglementation peut tout aussi bien être les termes des contrats (ex : délais de livraison, clauses d'assurance, transactions immobilières, accords financiers). Il peut s'agir des politiques des entreprises (par exemple, contraintes sur les déplacements, rapports sur les dépenses, règles de tarification). Ils peuvent même être les règles des jeux (incarnés dans les systèmes de jeux informatiques).
Apprentissage informatique_théorie/Théorie de l'apprentissage informatique :
En informatique, la théorie de l'apprentissage informatique (ou simplement la théorie de l'apprentissage) est un sous-domaine de l'intelligence artificielle consacré à l'étude de la conception et de l'analyse des algorithmes d'apprentissage automatique.
Lexicologie computationnelle/Lexicologie computationnelle :
La lexicologie informatique est une branche de la linguistique informatique, qui s'intéresse à l'utilisation des ordinateurs dans l'étude du lexique. Il a été plus étroitement décrit par certains chercheurs (Amsler, 1980) comme l'utilisation d'ordinateurs dans l'étude de dictionnaires lisibles par machine. Elle se distingue de la lexicographie informatique, qui serait plus correctement l'utilisation d'ordinateurs dans la construction de dictionnaires, bien que certains chercheurs aient utilisé la lexicographie informatique comme synonyme.
Linguistique computationnelle/Linguistique computationnelle :
La linguistique informatique est un domaine interdisciplinaire concerné par la modélisation informatique du langage naturel, ainsi que par l'étude d'approches informatiques appropriées aux questions linguistiques. En général, la linguistique computationnelle s'appuie sur la linguistique, l'informatique, l'intelligence artificielle, les mathématiques, la logique, la philosophie, les sciences cognitives, la psychologie cognitive, la psycholinguistique, l'anthropologie et les neurosciences, entre autres.
Lithographie computationnelle/Lithographie computationnelle :
La lithographie computationnelle (également connue sous le nom de mise à l'échelle computationnelle) est l'ensemble des approches mathématiques et algorithmiques conçues pour améliorer la résolution pouvant être atteinte par la photolithographie. La lithographie computationnelle est venue au premier plan de la photolithographie en 2008 alors que l'industrie des semi-conducteurs était aux prises avec les défis associés à la transition vers la technologie de processus CMOS 22 nanomètres et au-delà.
Logique de calcul/Logique de calcul :
La logique computationnelle est l'utilisation de la logique pour effectuer ou raisonner sur le calcul. Il entretient avec l'informatique et l'ingénierie une relation similaire à celle de la logique mathématique avec les mathématiques et de la logique philosophique avec la philosophie. Il est synonyme de "logique en informatique". Le terme « logique computationnelle » a pris de l'importance avec la fondation de l'ACM Transactions on Computational Logic en 2000. Cependant, le terme a été introduit beaucoup plus tôt, par JA Robinson en 1970. L'expression est utilisée dans le deuxième paragraphe avec une note de bas de page affirmant que "logique computationnelle" est "sûrement une meilleure expression que" preuve de théorème ", pour la branche de l'intelligence artificielle qui traite de la façon de faire en sorte que les machines effectuent efficacement la déduction". En 1972, l'unité de métamathématiques de l'Université d'Édimbourg a été rebaptisée "Département de logique computationnelle" à l'École d'intelligence artificielle. Le terme a ensuite été utilisé par Robert S. Boyer et J Strother Moore, qui travaillaient au Département au début des années 1970, pour décrire leurs travaux sur la vérification des programmes et le raisonnement automatisé. Ils ont également fondé Computational Logic Inc. La logique informatique est également associée à la programmation logique, car une grande partie des premiers travaux de programmation logique au début des années 1970 ont également eu lieu au Département de logique informatique à Édimbourg. Il a été réutilisé au début des années 1990 pour décrire les travaux sur les extensions de la programmation logique dans le projet de recherche fondamentale de l'UE "Compulog" et dans le réseau d'excellence associé. Krzysztof Apt, qui était le coordinateur du projet de recherche fondamentale Compulog-II, a réutilisé et généralisé le terme lorsqu'il a fondé ACM Transactions on Computational Logic en 2000 et en est devenu le premier rédacteur en chef.
Magnétohydrodynamique numérique / Magnétohydrodynamique numérique :
La magnétohydrodynamique computationnelle (CMHD) est une branche en développement rapide de la magnétohydrodynamique qui utilise des méthodes et des algorithmes numériques pour résoudre et analyser des problèmes impliquant des fluides électriquement conducteurs. La plupart des méthodes utilisées en CMHD sont empruntées aux techniques bien établies employées en dynamique des fluides computationnelle. La complexité provient principalement de la présence d'un champ magnétique et de son couplage avec le fluide. L'un des problèmes importants est de maintenir numériquement la condition (conservation du flux magnétique), à ​​partir des équations de Maxwell, pour éviter la présence d'éléments irréalistes. effets, à savoir les monopôles magnétiques, dans les solutions.
Sciences_informatiques des matériaux/Science informatique des matériaux :
La science et l'ingénierie des matériaux computationnels utilisent la modélisation, la simulation, la théorie et l'informatique pour comprendre les matériaux. Les principaux objectifs comprennent la découverte de nouveaux matériaux, la détermination du comportement et des mécanismes des matériaux, l'explication des expériences et l'exploration des théories des matériaux. Il est analogue à la chimie computationnelle et à la biologie computationnelle en tant que sous-domaine de plus en plus important de la science des matériaux.
Mathématiques computationnelles/Mathématiques computationnelles :
Les mathématiques computationnelles impliquent la recherche mathématique en mathématiques ainsi que dans les domaines scientifiques où le calcul joue un rôle central et essentiel, et mettent l'accent sur les algorithmes, les méthodes numériques et les calculs symboliques. mathématiques. Les mathématiques computationnelles peuvent également faire référence à l'utilisation d'ordinateurs pour les mathématiques elles-mêmes. Cela comprend l'utilisation d'ordinateurs pour les calculs mathématiques (algèbre informatique), l'étude de ce qui peut (et ne peut pas) être informatisé en mathématiques (méthodes efficaces), quels calculs peuvent être effectués avec la technologie actuelle (théorie de la complexité) et quelles preuves peuvent être fait sur ordinateur (assistants de preuve).
Mécanique computationnelle/Mécanique computationnelle :
La mécanique informatique est la discipline concernée par l'utilisation de méthodes informatiques pour étudier des phénomènes régis par les principes de la mécanique. Avant l'émergence de la science computationnelle (également appelée informatique scientifique) comme une "troisième voie" en plus des sciences théoriques et expérimentales, la mécanique computationnelle était largement considérée comme une sous-discipline de la mécanique appliquée. Il est maintenant considéré comme une sous-discipline au sein de la science computationnelle.
Méthodes de calcul_for_free_surface_flow/Méthodes de calcul pour l'écoulement à surface libre :
En physique, un écoulement à surface libre est la surface d'un fluide s'écoulant qui est soumise à la fois à une contrainte normale perpendiculaire nulle et à une contrainte de cisaillement parallèle. Cela peut être la frontière entre deux fluides homogènes, comme l'eau dans un récipient ouvert et l'air dans l'atmosphère terrestre qui forment une frontière sur la face ouverte du récipient. Le calcul des surfaces libres est complexe en raison du changement continu de l'emplacement de la couche limite. Les méthodes classiques de calcul sont insuffisantes pour une telle analyse. Par conséquent, des méthodes spéciales sont développées pour le calcul des écoulements à surface libre.
Microscopie computationnelle/Microscopie computationnelle :
La microscopie computationnelle est un sous-domaine de l'imagerie computationnelle, qui combine la reconstruction algorithmique avec la détection pour capturer des images microscopiques d'objets. Les algorithmes utilisés en microscopie computationnelle combinent souvent les informations de plusieurs images capturées à l'aide de diverses illuminations ou mesures pour former une image 2D ou 3D agrégée à l'aide de techniques itératives ou d'apprentissage automatique. Les formes notables de microscopie computationnelle comprennent la microscopie à fluorescence à super résolution, l'imagerie de phase quantitative et la ptychographie de Fourier. La microscopie computationnelle est à l'intersection de l'informatique et de l'optique.
Modèle informatique/Modèle informatique :
Un modèle informatique utilise des programmes informatiques pour simuler et étudier des systèmes complexes à l'aide d'une approche algorithmique ou mécaniste et est largement utilisé dans un large éventail de domaines allant de la physique, de la chimie et de la biologie à l'économie, à la psychologie, aux sciences cognitives et à l'informatique. Le système étudié est souvent un système non linéaire complexe pour lequel des solutions analytiques simples et intuitives ne sont pas facilement disponibles. Plutôt que de dériver une solution analytique mathématique au problème, l'expérimentation du modèle se fait en ajustant les paramètres du système dans l'ordinateur et en étudiant les différences dans les résultats des expériences. Des théories de fonctionnement du modèle peuvent être dérivées/déduites de ces expériences de calcul. Des exemples de modèles de calcul courants sont les modèles de prévision météorologique, les modèles de simulateur terrestre, les modèles de simulateur de vol, les modèles de repliement de protéines moléculaires et les modèles de réseau neuronal.
Modélisation informatique_de_l'AVC_ischémique/Modélisation informatique de l'AVC ischémique :
La modélisation informatique de l'AVC ischémique a été utilisée pour comprendre les événements biologiques au cours d'un AVC ischémique et pour identifier les cibles médicamenteuses potentielles. Ces modèles utilisent généralement des modèles à compartiments avec des équations différentielles ordinaires et des équations aux dérivées partielles. Les modèles de propagation des dépressions et de la dynamique des ions ont montré que l'activité neuronale diminue et que le gonflement augmente en raison d'un afflux de calcium, de sodium et de chlore, et d'un efflux de potassium et de glutamate dans les neurones lors d'un accident vasculaire cérébral ischémique sévère et modéré. La modélisation informatique du pH lors d'un accident vasculaire cérébral a également montré qu'en raison de la diminution de l'activité métabolique et de l'augmentation des concentrations de lactate et de dioxyde de carbone dans les neurones, le pH de la pénombre diminue. Ces résultats concordent avec les études in vitro et in vivo. Ces modèles informatiques peuvent être utilisés pour aider à identifier les protéines ou les récepteurs à cibler en intégrant de nombreux mécanismes complexes spécifiques à un événement d'AVC ischémique. événement d'AVC. Par exemple, un accident vasculaire cérébral peut induire une surexpression de NF-κB. Cette surexpression provoque une inflammation et une apoptose neuronale. En utilisant l'ADME, les chercheurs ont pu synthétiser et identifier une cible médicamenteuse qui avait une forte affinité de liaison avec NF-κB pour empêcher sa translocation. Cette technique a également été utilisée pour identifier des molécules ayant une haute affinité pour le récepteur de la choline présent dans la barrière hémato-encéphalique pour aider à déplacer des cibles thérapeutiques vers le site de la lésion cérébrale.
Modèles informatiques_en_épilepsie/Modèles informatiques en épilepsie :
Les modèles informatiques de l'épilepsie se concentrent principalement sur la description d'une manifestation électrophysiologique associée à l'épilepsie appelée crise. Pour cela, les neurosciences computationnelles utilisent des équations différentielles pour reproduire l'évolution temporelle des signaux enregistrés expérimentalement. Un livre publié en 2008, Computational Neuroscience in Epilepsy,. résume les différents travaux réalisés jusqu'à cette époque. Les objectifs de l'utilisation de ses modèles sont divers, allant de la prédiction à la compréhension des mécanismes sous-jacents. Le phénomène de crise (saisie) existe et partage certaines propriétés dynamiques à travers différentes échelles et différents organismes. Il est possible de distinguer différentes approches : les modèles phénoménologiques se focalisent sur les dynamiques observées, généralement réduites à peu de dimension cela facilite l'étude du point de vue de la théorie des systèmes dynamiques et des modèles plus mécanistes qui expliquent les interactions biophysiques sous-jacentes aux crises. Il est également possible d'utiliser ces approches pour modéliser et analyser les interactions entre différentes régions du cerveau (dans ce cas la notion de réseau joue un rôle important) et le passage à l'état critique. Ces approches à grande échelle ont l'avantage de pouvoir être mises en relation avec les enregistrements réalisés chez l'homme grâce à l'électroencéphalographie (EEG). Il offre de nouvelles orientations pour la recherche clinique, notamment comme outil complémentaire dans le traitement de l'épilepsie réfractaire. D'autres approches consistent à utiliser les modèles pour tenter de comprendre les mécanismes sous-jacents à ces crises à l'aide de descriptions biophysiques à l'échelle neuronale. Cela permet de comprendre le rôle de l'homéostasie et de comprendre le lien entre les grandeurs physiques (comme la concentration en potassium par exemple) et la dynamique pathologique observée. Ce domaine de recherche a évolué rapidement ces dernières années et continue d'être prometteur pour notre compréhension et traitement des épilepsies pour soit une application clinique directe dans le cas des épilepsies réfractaires soit une recherche fondamentale pour guider des travaux expérimentaux.
Musicologie computationnelle/Musicologie computationnelle :
La musicologie computationnelle est un domaine de recherche interdisciplinaire entre la musicologie et l'informatique. La musicologie computationnelle comprend toutes les disciplines qui utilisent des ordinateurs pour étudier la musique. Il comprend des sous-disciplines telles que la théorie mathématique de la musique, l'informatique musicale, la musicologie systématique, la recherche d'informations musicales, la musicologie computationnelle, la musicologie numérique, l'informatique sonore et musicale et l'informatique musicale. Comme ce domaine de recherche est défini par les outils qu'il utilise et son objet, la recherche en musicologie computationnelle croise à la fois les sciences humaines et les sciences. L'utilisation des ordinateurs pour étudier et analyser la musique a généralement commencé dans les années 1960, bien que les musiciens aient utilisé des ordinateurs pour les aider dans la composition de la musique à partir des années 1950. Aujourd'hui, la musicologie computationnelle englobe un large éventail de sujets de recherche traitant des multiples façons de représenter la musique.
Neuroesthétique computationnelle / Neuroesthétique computationnelle :
La neuroesthétique computationnelle est la discipline qui relie le neuromarketing, la psychologie et l'informatique. Il représente l'évolution de la neuroesthétique et de l'esthétique computationnelle et étudie les processus cérébraux des êtres humains impliqués au cours de l'expérience esthétique. Dans la poursuite de cet objectif de recherche, il utilise une méthodologie qui intègre les méthodes et techniques typiques des neurosciences avec celles typiques de la science computationnelle. Les stimuli visuels observés par les personnes, tels que les images, sont traités informatiquement pour obtenir une valeur numérique des caractéristiques esthétiques, telles que la luminosité et les teintes, qui sont liées aux processus cérébraux des sujets. Ce faisant, la neuroesthétique computationnelle dépasse les limites de l'esthétique computationnelle, qui n'utilise que des instruments de mesure classiques, tels que les échelles d'auto-évaluation, pour évaluer les émotions positives ressenties par les individus.
Modélisation neurogénétique computationnelle/Modélisation neurogénétique computationnelle :
La modélisation neurogénétique computationnelle (CNGM) concerne l'étude et le développement de modèles neuronaux dynamiques pour modéliser les fonctions cérébrales en ce qui concerne les gènes et les interactions dynamiques entre les gènes. Ceux-ci incluent des modèles de réseaux neuronaux et leur intégration avec des modèles de réseaux de gènes. Ce domaine rassemble des connaissances issues de diverses disciplines scientifiques, telles que l'informatique et les sciences de l'information, les neurosciences et les sciences cognitives, la génétique et la biologie moléculaire, ainsi que l'ingénierie.
Neurosciences computationnelles/neurosciences computationnelles :
Les neurosciences computationnelles (également appelées neurosciences théoriques ou neurosciences mathématiques) sont une branche des neurosciences qui utilise des modèles mathématiques, des simulations informatiques, des analyses théoriques et des abstractions du cerveau pour comprendre les principes qui régissent le développement, la structure, la physiologie et les capacités cognitives du système nerveux. système. Les neurosciences computationnelles utilisent des simulations informatiques pour valider et résoudre des modèles mathématiques, et peuvent donc être considérées comme un sous-domaine des neurosciences théoriques ; cependant, les deux domaines sont souvent synonymes. Le terme neuroscience mathématique est également utilisé parfois pour souligner la nature quantitative du domaine. utilisé dans le connexionnisme, la théorie du contrôle, la cybernétique, la psychologie quantitative, l'apprentissage automatique, les réseaux de neurones artificiels, l'intelligence artificielle et la théorie de l'apprentissage informatique ; bien que l'inspiration mutuelle existe et parfois qu'il n'y ait pas de limite stricte entre les domaines, l'abstraction des modèles en neurosciences computationnelles dépend de la portée de la recherche et de la granularité à laquelle les entités biologiques sont analysées. Les modèles en neurosciences théoriques visent à capturer les caractéristiques essentielles du système biologique à de multiples échelles spatio-temporelles, depuis les courants membranaires, et le couplage chimique via les oscillations de réseau, l'architecture colonnaire et topographique, les noyaux, jusqu'aux facultés psychologiques comme la mémoire, apprentissage et comportement. Ces modèles informatiques encadrent des hypothèses qui peuvent être directement testées par des expériences biologiques ou psychologiques.
Théorie_informatique des nombres/Théorie informatique des nombres :
En mathématiques et en informatique , la théorie computationnelle des nombres , également connue sous le nom de théorie algorithmique des nombres , est l'étude des méthodes de calcul pour étudier et résoudre des problèmes de théorie des nombres et de géométrie arithmétique , y compris des algorithmes pour les tests de primalité et la factorisation entière , trouver des solutions aux équations diophantiennes , et méthodes explicites en géométrie arithmétique. La théorie computationnelle des nombres a des applications en cryptographie, y compris RSA, la cryptographie à courbe elliptique et la cryptographie post-quantique, et est utilisée pour étudier les conjectures et les problèmes ouverts en théorie des nombres, y compris l'hypothèse de Riemann, la conjecture de Birch et Swinnerton-Dyer, la conjecture ABC, la conjecture de modularité, la conjecture de Sato-Tate et les aspects explicites du programme de Langlands.
Physique_des_particules_informatique/Physique_des_particules_informatique :
La physique computationnelle des particules fait référence aux méthodes et aux outils informatiques développés et utilisés par la recherche en physique des particules. Comme la chimie computationnelle ou la biologie computationnelle, il s'agit, pour la physique des particules à la fois d'une branche spécifique et d'un domaine interdisciplinaire s'appuyant sur l'informatique, la physique théorique et expérimentale des particules et les mathématiques. Les principaux domaines de la physique computationnelle des particules sont : la théorie des champs sur réseau (calculs numériques), le calcul automatique de l'interaction ou de la désintégration des particules (calcul formel) et les générateurs d'événements (méthodes stochastiques).
Philosophie computationnelle/Philosophie computationnelle :
La philosophie computationnelle ou philosophie numérique est l'utilisation de techniques computationnelles en philosophie. Il comprend des concepts tels que des modèles informatiques, des algorithmes, des simulations, des jeux, etc. qui aident à la recherche et à l'enseignement de concepts philosophiques, ainsi que des encyclopédies en ligne spécialisées et des visualisations graphiques des relations entre les philosophes et les concepts. L'utilisation des ordinateurs en philosophie a pris de l'ampleur à mesure que la puissance des ordinateurs et la disponibilité des données ont considérablement augmenté. Ceci, ainsi que le développement de nombreuses nouvelles techniques qui utilisent ces ordinateurs et ces données, a ouvert de nombreuses nouvelles façons de faire de la philosophie qui n'étaient pas disponibles auparavant. Cela a également conduit à de nouvelles idées en philosophie.
Photographie computationnelle/Photographie computationnelle :
La photographie computationnelle fait référence aux techniques de capture et de traitement d'images numériques qui utilisent le calcul numérique au lieu de processus optiques. La photographie computationnelle peut améliorer les capacités d'un appareil photo, ou introduire des fonctionnalités qui n'étaient pas du tout possibles avec la photographie sur film, ou réduire le coût ou la taille des éléments de l'appareil photo. Des exemples de photographie computationnelle comprennent le calcul intégré à l'appareil photo de panoramas numériques, d'images à plage dynamique élevée et de caméras à champ lumineux. Les caméras à champ lumineux utilisent de nouveaux éléments optiques pour capturer des informations de scène tridimensionnelles qui peuvent ensuite être utilisées pour produire des images 3D, une profondeur de champ améliorée et une défocalisation sélective (ou "post focus"). La profondeur de champ améliorée réduit le besoin de systèmes de mise au point mécaniques. Toutes ces fonctionnalités utilisent des techniques d'imagerie computationnelle. La définition de la photographie computationnelle a évolué pour couvrir un certain nombre de domaines de l'infographie, de la vision par ordinateur et de l'optique appliquée. Ces zones sont données ci-dessous, organisées selon une taxonomie proposée par Shree K. Nayar. Dans chaque domaine se trouve une liste de techniques, et pour chaque technique, un ou deux articles ou livres représentatifs sont cités. Les techniques de traitement d'image (voir aussi traitement d'image numérique ) appliquées aux images capturées traditionnellement afin de produire de meilleures images sont délibérément omises de la taxonomie. Des exemples de ces techniques sont la mise à l'échelle de l'image, la compression de la plage dynamique (c'est-à-dire le mappage des tons), la gestion des couleurs, l'achèvement de l'image (c'est-à-dire l'inpainting ou le remplissage des trous), la compression de l'image, le filigrane numérique et les effets d'image artistiques. Sont également omises les techniques qui produisent des données de distance, des données de volume, des modèles 3D, des champs lumineux 4D, des BRDF 4D, 6D ou 8D ou d'autres représentations basées sur des images de haute dimension. La photographie Epsilon est un sous-domaine de la photographie computationnelle.
Phylogénétique computationnelle / Phylogénétique computationnelle :
La phylogénétique informatique est l'application d'algorithmes, de méthodes et de programmes informatiques aux analyses phylogénétiques. L'objectif est d'assembler un arbre phylogénétique représentant une hypothèse sur l'ascendance évolutive d'un ensemble de gènes, d'espèces ou d'autres taxons. Par exemple, ces techniques ont été utilisées pour explorer l'arbre généalogique des espèces d'hominidés et les relations entre des gènes spécifiques partagés par de nombreux types d'organismes. La phylogénétique traditionnelle repose sur des données morphologiques obtenues en mesurant et quantifiant les propriétés phénotypiques d'organismes représentatifs, tandis que les domaine récent de la phylogénétique moléculaire utilise des séquences de nucléotides codant pour des gènes ou des séquences d'acides aminés codant pour des protéines comme base de classification. De nombreuses formes de phylogénétique moléculaire sont étroitement liées et utilisent largement l'alignement de séquences dans la construction et le raffinement des arbres phylogénétiques, qui sont utilisés pour classer les relations évolutives entre les gènes homologues représentés dans les génomes d'espèces divergentes. Il est peu probable que les arbres phylogénétiques construits par des méthodes informatiques reproduisent parfaitement l'arbre évolutif qui représente les relations historiques entre les espèces analysées. L'arbre historique des espèces peut également différer de l'arbre historique d'un gène homologue individuel partagé par ces espèces.
Physique computationnelle/Physique computationnelle :
La physique computationnelle est l'étude et la mise en œuvre de l'analyse numérique pour résoudre des problèmes de physique pour lesquels une théorie quantitative existe déjà. Historiquement, la physique computationnelle a été la première application des ordinateurs modernes en science et est maintenant un sous-ensemble de la science computationnelle. Elle est parfois considérée comme une sous-discipline (ou ramification) de la physique théorique, mais d'autres la considèrent comme une branche intermédiaire entre la physique théorique et expérimentale - un domaine d'étude qui complète à la fois la théorie et l'expérimentation.
Politique computationnelle/Politique computationnelle :
La politique computationnelle est l'intersection entre l'informatique et la science politique. Le domaine implique l'utilisation de méthodes informatiques, telles que des outils d'analyse et des méthodes de prédiction, pour présenter les solutions aux questions de sciences politiques. Les chercheurs dans ce domaine utilisent de grands ensembles de données pour étudier le comportement des utilisateurs. Des exemples courants de tels travaux sont la construction d'un classificateur pour prédire les préjugés politiques des utilisateurs dans les médias sociaux ou la recherche de préjugés politiques dans les actualités. Cette discipline est étroitement liée à la sociologie numérique. Cependant, la politique computationnelle se concentre principalement sur les problèmes et l'analyse liés à la politique. La politique informatique est souvent utilisée dans les campagnes politiques pour cibler des individus à des fins publicitaires.
Problème de calcul/Problème de calcul :
En informatique théorique, un problème de calcul est un problème qui peut être résolu par un algorithme. Par exemple, le problème de factorisation "Étant donné un entier positif n, trouver un facteur premier non trivial de n." est un problème de calcul. Un problème de calcul peut être considéré comme un ensemble d'instances ou de cas avec un ensemble, éventuellement vide, de solutions pour chaque instance/cas. Par exemple, dans le problème de factorisation, les instances sont les entiers n et les solutions sont les nombres premiers p qui sont les facteurs premiers non triviaux de n. Les problèmes de calcul sont l'un des principaux objets d'étude en informatique théorique. Le domaine de la théorie de la complexité computationnelle tente de déterminer la quantité de ressources (complexité computationnelle) que la résolution d'un problème donné nécessitera et d'expliquer pourquoi certains problèmes sont insolubles ou indécidables. Les problèmes informatiques appartiennent à des classes de complexité qui définissent largement les ressources (par exemple temps, espace/mémoire, énergie, profondeur de circuit) qu'il faut pour les calculer (résoudre) avec diverses machines abstraites. Par exemple, la classe de complexité P pour les machines classiques, et BQP pour les machines quantiques. Il est typique de nombreux problèmes de représenter à la fois les instances et les solutions par des chaînes binaires, à savoir des éléments de {0, 1}*. Par exemple, les nombres peuvent être représentés sous forme de chaînes binaires à l'aide d'un codage binaire.
Psychométrie computationnelle/Psychométrie computationnelle :
La psychométrie computationnelle est un domaine interdisciplinaire fusionnant la psychométrie basée sur la théorie, l'apprentissage et les sciences cognitives, et les modèles informatiques basés sur l'IA basés sur les données, appliqués à l'apprentissage, à l'évaluation, aux données biométriques ou psychologiques à grande échelle/haute dimension. La psychométrie computationnelle vise souvent à fournir une rétroaction exploitable et significative aux individus en fonction de la mesure et de l'analyse des différences individuelles dans la mesure où elles se rapportent à des domaines d'enquête spécifiques. La disponibilité relativement récente de données psychométriques à grande échelle dans des formats accessibles, ainsi que l'augmentation rapide de la puissance de traitement du processeur, l'accessibilité généralisée et l'application de l'informatique en cluster et en nuage, et le développement d'instruments de plus en plus sensibles pour la collecte d'informations biométriques ont permis l'analyse de données volumineuses. et des méthodes informatiques pour élargir l'échelle et la portée des domaines d'enquête et de modélisation psychométriques traditionnels. La poursuite d'une approche informatique de la psychométrie implique souvent des scientifiques travaillant dans des équipes multidisciplinaires ayant une expertise en intelligence artificielle, apprentissage automatique, apprentissage en profondeur et modélisation de réseaux neuronaux, traitement du langage naturel , mathématiques et statistiques, psychologie du développement et cognitive, informatique, science des données, sciences de l'apprentissage, réalité virtuelle et augmentée et psychométrie traditionnelle.
Ressource informatique/Ressource informatique :
Dans la théorie de la complexité informatique, une ressource informatique est une ressource utilisée par certains modèles informatiques dans la résolution de problèmes informatiques. Les ressources de calcul les plus simples sont le temps de calcul, le nombre d'étapes nécessaires pour résoudre un problème, et l'espace mémoire, la quantité de stockage nécessaire pour résoudre le problème, mais de nombreuses ressources plus complexes ont été définies. Un problème de calcul est généralement défini en termes de son action sur toute entrée valide. Des exemples de problèmes pourraient être "étant donné un entier n, déterminer si n est premier", ou "étant donné deux nombres x et y, calculer le produit x*y". À mesure que les entrées augmentent, la quantité de ressources informatiques nécessaires pour résoudre un problème augmente. Ainsi, les ressources nécessaires pour résoudre un problème sont décrites en termes d'analyse asymptotique, en identifiant les ressources en fonction de la longueur ou de la taille de l'entrée. L'utilisation des ressources est souvent partiellement quantifiée à l'aide de la notation Big O. Les ressources informatiques sont utiles car nous pouvons étudier quels problèmes peuvent être calculés dans une certaine quantité de chaque ressource informatique. De cette manière, nous pouvons déterminer si les algorithmes de résolution du problème sont optimaux et nous pouvons faire des déclarations sur l'efficacité d'un algorithme. L'ensemble de tous les problèmes de calcul qui peuvent être résolus en utilisant une certaine quantité d'une certaine ressource de calcul est une classe de complexité, et les relations entre différentes classes de complexité sont l'un des sujets les plus importants de la théorie de la complexité.
Sciences computationnelles/Sciences computationnelles :
La science computationnelle, également connue sous le nom de calcul scientifique ou calcul scientifique (SC), est un domaine des mathématiques qui utilise des capacités informatiques avancées pour comprendre et résoudre des problèmes complexes. C'est un domaine de la science qui couvre de nombreuses disciplines, mais à la base, il implique le développement de modèles et de simulations pour comprendre les systèmes naturels. Algorithmes (numériques et non numériques) : modèles mathématiques, modèles informatiques et simulations informatiques développés pour résoudre des problèmes scientifiques (par exemple, biologiques, physiques et sociaux), d'ingénierie et de sciences humaines Matériel informatique qui développe et optimise le matériel système avancé, le micrologiciel , de mise en réseau et de gestion des données nécessaires pour résoudre des problèmes exigeants en termes de calcul L'infrastructure informatique qui prend en charge à la fois la résolution de problèmes scientifiques et techniques et l'informatique de développement et la science de l'information Dans la pratique, il s'agit généralement de l'application de la simulation informatique et d'autres formes de calcul à partir de calculs numériques analyse et informatique théorique pour résoudre des problèmes dans diverses disciplines scientifiques. Le domaine est différent de la théorie et des expériences de laboratoire, qui sont les formes traditionnelles de la science et de l'ingénierie. L'approche du calcul scientifique consiste à gagner en compréhension par l'analyse de modèles mathématiques implémentés sur des ordinateurs. Les scientifiques et les ingénieurs développent des programmes informatiques et des logiciels d'application qui modélisent les systèmes étudiés et exécutent ces programmes avec divers ensembles de paramètres d'entrée. L'essence de la science computationnelle est l'application d'algorithmes numériques et de mathématiques computationnelles. Dans certains cas, ces modèles nécessitent des quantités massives de calculs (généralement en virgule flottante) et sont souvent exécutés sur des supercalculateurs ou des plates-formes informatiques distribuées.
Scientifique en informatique / Scientifique en informatique :
Un informaticien est une personne compétente en informatique scientifique. Cette personne est généralement un scientifique, un statisticien, un mathématicien appliqué ou un ingénieur qui applique le calcul haute performance et parfois le cloud computing de différentes manières pour faire progresser l'état de l'art dans leur discipline appliquée respective ; physique, chimie, sciences sociales, etc. Ainsi, l'informatique scientifique a de plus en plus influencé de nombreux domaines tels que l'économie, la biologie, le droit et la médecine, pour n'en nommer que quelques-uns. Étant donné que le travail d'un scientifique en informatique est généralement appliqué à la science et à d'autres disciplines, il n'est pas nécessairement formé spécifiquement à l'informatique, bien que des concepts d'informatique soient souvent utilisés. Les informaticiens sont généralement des chercheurs dans des universités universitaires, des laboratoires nationaux ou des entreprises de technologie. L'une des tâches d'un informaticien est d'analyser de grandes quantités de données, souvent issues de l'astrophysique ou de domaines connexes, car elles peuvent souvent générer d'énormes quantités de données. Les informaticiens doivent souvent nettoyer et calibrer les données sous une forme utilisable pour une analyse efficace. Les informaticiens sont également chargés de créer des données artificielles à l'aide de modèles informatiques et de simulations.
Sémantique computationnelle/Sémantique computationnelle :
La sémantique computationnelle est l'étude de la manière d'automatiser le processus de construction et de raisonnement avec des représentations de sens d'expressions en langage naturel. Il joue par conséquent un rôle important dans le traitement du langage naturel et la linguistique computationnelle. Certains sujets d'intérêt traditionnels sont : la construction de représentations de sens, la sous-spécification sémantique, la résolution d'anaphores, la projection de présuppositions et la résolution de la portée des quantificateurs. Les méthodes employées s'inspirent généralement de la sémantique formelle ou de la sémantique statistique. La sémantique computationnelle a des points de contact avec les domaines de la sémantique lexicale (désambiguïsation du sens des mots et étiquetage des rôles sémantiques), de la sémantique du discours, de la représentation des connaissances et du raisonnement automatisé (en particulier, la preuve automatisée de théorèmes). Depuis 1999, il existe un groupe d'intérêt spécial de l'ACL sur la sémantique computationnelle, SIGSEM.
Sémiotique computationnelle/Sémiotique computationnelle :
La sémiotique computationnelle est un domaine interdisciplinaire qui applique, mène et s'appuie sur la recherche en logique, en mathématiques, sur la théorie et la pratique du calcul, sur les études du langage formel et naturel, sur les sciences cognitives en général et sur la sémiotique proprement dite. Le terme englobe à la fois l'application de la sémiotique à la conception de matériel informatique et de logiciels et, inversement, l'utilisation du calcul pour effectuer une analyse sémiotique. Le premier se concentre sur ce que la sémiotique peut apporter au calcul ; le second sur ce que le calcul peut apporter à la sémiotique.
Computational social_choice/Computational social choice :
Le choix social computationnel est un domaine à l'intersection de la théorie du choix social, de l'informatique théorique et de l'analyse des systèmes multi-agents. Elle consiste en l'analyse des problèmes résultant de l'agrégation des préférences d'un groupe d'agents dans une perspective computationnelle. En particulier, le choix social informatique concerne le calcul efficace des résultats des règles de vote, la complexité informatique de diverses formes de manipulation et les problèmes découlant du problème de la représentation et de l'élicitation des préférences dans des contextes combinatoires.
Sciences sociales_informatiques/Sciences sociales_informatiques :
Les sciences sociales computationnelles sont la sous-discipline universitaire concernée par les approches computationnelles des sciences sociales. Cela signifie que les ordinateurs sont utilisés pour modéliser, simuler et analyser des phénomènes sociaux. Alors que les méthodes de calcul à grande échelle sont appliquées aux sciences naturelles depuis des décennies, l'intérêt pour l'application de la science des données aux sciences sociales a considérablement augmenté au cours de la dernière décennie. Les domaines comprennent l'économie computationnelle, la sociologie computationnelle, la cliodynamique, la culturomique et l'analyse automatisée des contenus, dans les médias sociaux et traditionnels. Il se concentre sur l'étude des relations et des interactions sociales et comportementales par le biais de la simulation sociale, de la modélisation, de l'analyse de réseau et de l'analyse des médias.
Sociologie computationnelle/Sociologie computationnelle :
La sociologie informatique est une branche de la sociologie qui utilise des méthodes informatiques intensives pour analyser et modéliser les phénomènes sociaux. En utilisant des simulations informatiques, l'intelligence artificielle, des méthodes statistiques complexes et des approches analytiques telles que l'analyse des réseaux sociaux, la sociologie computationnelle développe et teste des théories de processus sociaux complexes grâce à une modélisation ascendante des interactions sociales. Elle implique la compréhension des agents sociaux, l'interaction entre ces agents, et l'effet de ces interactions sur l'agrégat social. Bien que le sujet et les méthodologies des sciences sociales diffèrent de ceux des sciences naturelles ou de l'informatique, plusieurs des approches utilisées dans la simulation sociale contemporaine proviennent de domaines tels que la physique et l'intelligence artificielle. Certaines des approches issues de ce domaine ont été importées dans les sciences naturelles, telles que les mesures de la centralité du réseau issues des domaines de l'analyse des réseaux sociaux et de la science des réseaux. Dans la littérature pertinente, la sociologie computationnelle est souvent liée à l'étude de la complexité sociale. Les concepts de complexité sociale tels que les systèmes complexes, l'interconnexion non linéaire entre les processus macro et micro et l'émergence sont entrés dans le vocabulaire de la sociologie computationnelle. Un exemple pratique et bien connu est la construction d'un modèle informatique sous la forme d'une "société artificielle", par laquelle les chercheurs peuvent analyser la structure d'un système social.
Statistiques computationnelles/Statistiques computationnelles :
La statistique computationnelle, ou calcul statistique, est le lien entre la statistique et l'informatique. Cela signifie des méthodes statistiques rendues possibles par l'utilisation de méthodes de calcul. C'est le domaine de la science computationnelle (ou informatique scientifique) spécifique à la science mathématique des statistiques. Ce domaine se développe également rapidement, conduisant à des appels à l'enseignement d'un concept plus large de l'informatique dans le cadre de l'enseignement statistique général. Comme dans les statistiques traditionnelles, l'objectif est de transformer les données brutes en connaissances, mais l'accent est mis sur les méthodes statistiques intensives comme les cas avec une très grande taille d'échantillon et des ensembles de données non homogènes. Les termes «statistiques informatiques» et «informatique statistique» sont souvent utilisés de manière interchangeable, bien que Carlo Lauro (ancien président de l'Association internationale de calcul statistique) ait proposé de faire une distinction , définissant le « calcul statistique » comme « l'application de l'informatique aux statistiques » et les « statistiques computationnelles » comme « visant à concevoir un algorithme pour mettre en œuvre des méthodes statistiques sur des ordinateurs, y compris celles qui étaient impensables avant l'ère de l'informatique (par exemple bootstrap, simulation ), ainsi que pour faire face à des problèmes analytiquement insolubles" [sic]. Le terme "statistiques computationnelles" peut également être utilisé faire référence à des méthodes statistiques intensives en calcul, y compris les méthodes de rééchantillonnage, les méthodes Monte Carlo de la chaîne de Markov, la régression locale, l'estimation de la densité du noyau, les réseaux de neurones artificiels et les modèles additifs généralisés.
Pilotage informatique/Pilotage informatique :
Le pilotage informatique est la pratique consistant à intervenir manuellement avec un processus informatique par ailleurs autonome, pour modifier son résultat. Le terme est couramment utilisé dans la communauté de la simulation numérique, où il se réfère plus spécifiquement à la pratique consistant à guider de manière interactive une expérience informatique dans une région d'intérêt.
Durabilité informatique/Durabilité informatique :
La durabilité informatique est un domaine émergent qui tente d'équilibrer les ressources sociétales, économiques et environnementales pour le bien-être futur de l'humanité en utilisant des méthodes issues des domaines des mathématiques, de l'informatique et des sciences de l'information. La durabilité dans ce contexte fait référence à la capacité du monde à soutenir les systèmes biologiques, sociaux et environnementaux à long terme. Utilisant la puissance des ordinateurs pour traiter de grandes quantités d'informations, les algorithmes de prise de décision allouent des ressources en fonction d'informations en temps réel. Les applications avancées par ce domaine sont répandues dans divers domaines. L'intelligence artificielle et les techniques d'apprentissage automatique sont créées pour promouvoir la conservation à long terme de la biodiversité et la protection des espèces. Les réseaux intelligents mettent en œuvre des ressources renouvelables et des capacités de stockage pour contrôler la production et la dépense d'énergie. Les technologies des systèmes de transport intelligents peuvent analyser les conditions routières et transmettre des informations aux conducteurs afin qu'ils puissent prendre des décisions plus intelligentes et plus respectueuses de l'environnement en fonction des informations sur la circulation en temps réel.
Théorie_informatique_de_l'esprit/Théorie informatique de l'esprit :
En philosophie de l'esprit, la théorie computationnelle de l'esprit (CTM), également connue sous le nom de calculalisme, est une famille de points de vue qui soutiennent que l'esprit humain est un système de traitement de l'information et que la cognition et la conscience sont ensemble une forme de calcul. Warren McCulloch et Walter Pitts (1943) ont été les premiers à suggérer que l'activité neuronale est computationnelle. Ils ont fait valoir que les calculs neuronaux expliquent la cognition. La théorie a été proposée sous sa forme moderne par Hilary Putnam en 1967 et développée par son doctorant, philosophe et scientifique cognitif Jerry Fodor dans les années 1960, 1970 et 1980. Bien qu'elle ait été vigoureusement contestée dans la philosophie analytique dans les années 1990 en raison des travaux de Putnam lui-même, de John Searle et d'autres, le point de vue est courant dans la psychologie cognitive moderne et est présumé par de nombreux théoriciens de la psychologie évolutionniste. Dans les années 2000 et 2010, la vision a refait surface dans la philosophie analytique (Scheutz 2003, Edelman 2008). La théorie computationnelle de l'esprit soutient que l'esprit est un système computationnel qui est réalisé (c'est-à-dire physiquement mis en œuvre) par l'activité neuronale dans le cerveau. La théorie peut être élaborée de plusieurs façons et varie largement en fonction de la façon dont le terme calcul est compris. Le calcul est communément compris en termes de machines de Turing qui manipulent des symboles selon une règle, en combinaison avec l'état interne de la machine. L'aspect critique d'un tel modèle de calcul est que nous pouvons faire abstraction de détails physiques particuliers de la machine qui met en œuvre le calcul. Par exemple, le calcul approprié pourrait être mis en œuvre soit par des puces de silicium, soit par des réseaux de neurones biologiques, tant qu'il existe une série de sorties basées sur des manipulations d'entrées et d'états internes, effectuées selon une règle. CTM soutient donc que l'esprit n'est pas simplement analogue à un programme informatique, mais qu'il s'agit littéralement d'un système informatique. On dit souvent que les théories computationnelles de l'esprit nécessitent une représentation mentale parce que «l'entrée» dans un calcul se présente sous la forme de symboles ou représentations d'autres objets. Un ordinateur ne peut pas calculer un objet réel mais doit interpréter et représenter l'objet sous une certaine forme, puis calculer la représentation. La théorie computationnelle de l'esprit est liée à la théorie représentationnelle de l'esprit en ce sens qu'elles exigent toutes deux que les états mentaux soient des représentations. Cependant, la théorie représentationnelle de l'esprit déplace l'attention sur les symboles manipulés. Cette approche tient mieux compte de la systématicité et de la productivité. Dans les vues originales de Fodor, la théorie computationnelle de l'esprit est également liée au langage de la pensée. La théorie du langage de la pensée permet à l'esprit de traiter des représentations plus complexes à l'aide de la sémantique. (Voir ci-dessous dans la sémantique des états mentaux). Des travaux récents suggèrent de faire une distinction entre l'esprit et la cognition. S'inspirant de la tradition de McCulloch et Pitts, la théorie computationnelle de la cognition (CTC) stipule que les calculs neuronaux expliquent la cognition. La théorie computationnelle de l'esprit affirme que non seulement la cognition, mais aussi la conscience phénoménale ou qualia, sont computationnelles. C'est-à-dire que CTM implique CTC. Alors que la conscience phénoménale pourrait remplir un autre rôle fonctionnel, la théorie computationnelle de la cognition laisse ouverte la possibilité que certains aspects de l'esprit puissent être non computationnels. Le CTC fournit donc un cadre explicatif important pour comprendre les réseaux de neurones, tout en évitant les contre-arguments centrés sur la conscience phénoménale.
Thermodynamique computationnelle/Thermodynamique computationnelle :
La thermodynamique computationnelle est l'utilisation d'ordinateurs pour simuler des problèmes thermodynamiques propres à la science des matériaux, notamment utilisés dans la construction de diagrammes de phase. Plusieurs programmes ouverts et commerciaux existent pour effectuer ces opérations. Le concept de la technique est la minimisation de l'énergie libre de Gibbs du système ; le succès de cette méthode est dû non seulement à la bonne mesure des propriétés thermodynamiques, telles que celles de la liste des propriétés thermodynamiques, mais également à l'extrapolation des propriétés des allotropes métastables des éléments chimiques.
Pensée computationnelle/Pensée computationnelle :
la pensée computationnelle (CT) est la compétence mentale pour appliquer des concepts et un raisonnement fondamentaux, dérivés de l'informatique et de l'informatique, pour résoudre des problèmes dans tous les domaines. Dans l'éducation, CT est un ensemble de méthodes de résolution de problèmes qui impliquent d'exprimer des problèmes et leurs solutions d'une manière qu'un ordinateur pourrait également exécuter. Cela implique l'automatisation des processus, mais aussi l'utilisation de l'informatique pour explorer, analyser et comprendre les processus (naturels et artificiels). Il peut être difficile de voir ce qu'est la pensée informatique, et les gens peuvent tomber dans le piège de ne considérer que l'IA. L'IA est la pensée computationnelle, la plus populaire, mais ne représente pas entièrement le domaine. La pensée computationnelle a commencé bien avant que l'IA ne devienne populaire avec l'apprentissage en profondeur en tant que leader. À titre d'exemple, la programmation mathématique, qui fait partie de la recherche opérationnelle, est une pensée computationnelle, développée pendant la Seconde Guerre mondiale, et traditionnellement, il y a même une décennie, n'utilisait aucune IA. On peut voir la pensée computationnelle avec une expérience de pensée : "Supposons que vous donniez votre résultat, à partir de votre modèle, à quelqu'un. Croyez-vous que la personne serait capable de faire la différence entre votre solution, à partir de votre algorithme, et un humain ? Sinon , c'est la pensée computationnelle. C'est une machine (c'est-à-dire un algorithme, une routine), qui fait un travail de pensée humaine. " Daniel Kahneman et ses collègues ont une définition intéressante des algorithmes, toute la pensée computationnelle est des algorithmes : Bien que de nos jours ces [machine learning ] sont les applications auxquelles nous pensons lorsque nous entendons le mot algorithme, le terme a un sens plus large. Dans la définition d'un dictionnaire, un algorithme est un "processus ou un ensemble de règles à suivre dans les calculs ou d'autres opérations de résolution de problèmes, en particulier par un ordinateur". Selon cette définition, les modèles simples et les autres formes de jugement mécanique [par opposition au jugement clinique] que nous avons décrits dans le chapitre précédent sont également des algorithmes. La pensée computationnelle, puisqu'elle est présente essentiellement partout, peut s'apparenter à la science des données : tout le monde le fait, et c'est difficile à définir, sans exclure.
Topologie computationnelle/Topologie computationnelle :
La topologie algorithmique, ou topologie computationnelle, est un sous-domaine de la topologie qui chevauche des domaines de l'informatique, en particulier la géométrie computationnelle et la théorie de la complexité computationnelle. L'une des principales préoccupations de la topologie algorithmique, comme son nom l'indique, est de développer des algorithmes efficaces pour résoudre des problèmes qui se posent naturellement dans des domaines tels que la géométrie computationnelle, le graphisme, la robotique, la biologie structurale et la chimie, en utilisant des méthodes issues de la topologie calculable.
Science_informatique_du_transport/Science informatique du transport :
La science computationnelle des transports (CTS) est une discipline émergente qui combine l'informatique et l'ingénierie avec la modélisation, la planification et les aspects économiques des transports. La discipline étudie comment améliorer la sécurité, la mobilité et la durabilité du système de transport en tirant parti des technologies de l'information et de l'informatique omniprésente. Une liste de sujets englobés par CTS peut être trouvée à include. La science computationnelle des transports est une discipline émergente allant au-delà de la technologie des véhicules, abordant les systèmes piétons sur des appareils portatifs, mais aussi des problèmes tels que l'exploration de données de transport (ou l'analyse des mouvements), ainsi que aspects de la gestion des données. Le CTS permet une flexibilité croissante du système car des négociations locales et autonomes entre les pairs du transport, les partenaires et l'infrastructure de soutien sont autorisées. Ainsi, CTS fournit des moyens pour étudier l'informatique localisée, l'auto-organisation, la coopération et la simulation des systèmes de transport. Plusieurs conférences académiques sur les CTS ont eu lieu à ce jour : Le quatrième atelier international ACM SIGSPATIAL sur la science computationnelle du transport Le troisième atelier international ACM SIGSPATIAL sur la science computationnelle du transport Le séminaire Dagstuhl 10121 sur la science computationnelle du transport Le deuxième atelier international sur la science computationnelle du transport Le premier Atelier sur la science du transport informatique Il existe également un programme IGERT PHD sur la science du transport informatique à l'Université de l'Illinois à Chicago.
Confiance informatique/Confiance informatique :
Dans le domaine de la sécurité de l'information, la confiance informatique est la génération d'autorités de confiance ou la confiance des utilisateurs par le biais de la cryptographie. Dans les systèmes centralisés, la sécurité est généralement basée sur l'identité authentifiée des parties externes. Des mécanismes d'authentification rigides, tels que les infrastructures à clé publique (PKI) ou Kerberos, ont permis d'étendre ce modèle à des systèmes distribués au sein de quelques domaines collaborant étroitement ou au sein d'un seul domaine administratif. Au cours des dernières années, l'informatique est passée des systèmes centralisés à l'informatique distribuée. Cette évolution a plusieurs implications pour les modèles, les politiques et les mécanismes de sécurité nécessaires pour protéger les informations et les ressources des utilisateurs dans une infrastructure informatique de plus en plus interconnectée. Les mécanismes de sécurité basés sur l'identité ne peuvent pas autoriser une opération sans authentifier l'entité réclamante. Cela signifie qu'aucune interaction ne peut se produire à moins que les deux parties ne soient connues par leurs cadres d'authentification. Les interactions spontanées nécessiteraient donc une ou plusieurs autorités de certification (CA) de confiance. Dans le contexte actuel, les PKI n'ont pas été pris en compte car ils ont des problèmes, il est donc peu probable qu'ils s'imposent comme une norme de référence dans un avenir proche. Un utilisateur qui souhaite collaborer avec une autre partie peut choisir entre activer la sécurité et ainsi désactiver la collaboration spontanée, ou désactiver la sécurité et activer la collaboration spontanée. Il est fondamental que les utilisateurs et appareils mobiles puissent s'authentifier de manière autonome sans s'appuyer sur une infrastructure d'authentification commune. Afin de faire face à ce problème, nous devons examiner les défis introduits par le "global computing", un terme inventé par l'UE pour désigner l'avenir de la société mondiale de l'information, et identifier leur impact sur la sécurité. Les crypto-monnaies, telles que Bitcoin, utilisent des méthodes telles que la preuve de travail (PoW) pour obtenir une confiance informatique à l'intérieur du réseau de transaction.
Visualistique computationnelle / Visualistique computationnelle :
Le terme visualistique computationnelle est utilisé pour aborder toute la gamme des images d'investigation scientifiquement "dans" l'ordinateur.
Computationally Advanced_Infrastructure_Partnerships_Center/Computationally Advanced Infrastructure Partnerships Center :
Le centre de partenariats d'infrastructure informatique avancée (CAIP) (anciennement le centre de traitement avancé de l'information) est un centre de technologie de pointe de l'université Rutgers. Le centre a été créé en 1985 avec le soutien de la Commission du New Jersey sur la science et la technologie pour s'appuyer sur la recherche dans les disciplines axées sur l'informatique et pour favoriser la collaboration entre l'université et l'industrie. Le centre mène des recherches continues dans des domaines tels que le VLSI, la vision artificielle, la réalité virtuelle, la robotique et le génie logiciel. Une grande partie de la recherche produite par le centre est d'importance internationale. Le Laboratoire d'interface homme-machine a reçu une reconnaissance internationale dans la littérature académique et populaire pour ses réalisations en réadaptation virtuelle. Le centre a également collaboré avec le Département de la sécurité intérieure et d'autres agences pour développer des algorithmes pour les recherches de bagages assistées par machine, la détection et l'identification des armes et les communications d'urgence.
Adversaire_limité par le calcul/Adversaire limité par le calcul :
En théorie de l'information, le problème de l'adversaire limité par le calcul est une manière différente d'aborder le problème de l'envoi de données sur un canal bruyant. Dans les modèles précédents, le mieux qui pouvait être fait était d'assurer un décodage correct jusqu'à d/2 erreurs, où d était la distance de Hamming du code. Le problème avec cette méthode est qu'elle ne tient pas compte de la quantité réelle de puissance de calcul disponible pour l'adversaire. Au lieu de cela, il ne s'intéresse qu'au nombre de bits d'un mot de code donné qui peuvent changer et toujours décoder correctement le message. Dans le modèle d'adversaire limité par le calcul, le canal - l'adversaire - est limité à ne pouvoir effectuer qu'une quantité raisonnable de calculs pour décider quels bits du mot de code doivent changer. En d'autres termes, ce modèle n'a pas besoin de prendre en compte le nombre d'erreurs pouvant éventuellement être traitées, mais uniquement le nombre d'erreurs susceptibles d'être introduites compte tenu d'une puissance de calcul raisonnable de la part de l'adversaire. Une fois que le canal a reçu cette restriction, il devient possible de construire des codes qui sont à la fois plus rapides à coder et à décoder par rapport aux méthodes précédentes qui peuvent également gérer un grand nombre d'erreurs.

Aucun commentaire:

Enregistrer un commentaire

Cultural group

Contrats culturels / Contrats culturels : Les contrats culturels font référence à la mesure dans laquelle les valeurs culturelles sont ...