| Entités algorithmiques: Les entités algorithmiques font référence à des algorithmes autonomes qui fonctionnent sans contrôle ni interférence humains. Récemment, une attention a été accordée à l'idée d'accorder aux entités algorithmiques la personnalité juridique. Le professeur Shawn Bayern et le professeur Lynn M. LoPucki ont popularisé à travers leurs articles l'idée d'avoir des entités algorithmiques qui obtiennent la personnalité juridique et les droits et obligations qui l'accompagnent. | |
| Complexité de Kolmogorov: Dans la théorie de l'information algorithmique, la complexité de Kolmogorov d'un objet, tel qu'un morceau de texte, est la longueur d'un programme informatique le plus court qui produit l'objet en sortie. Il s'agit d'une mesure des ressources de calcul nécessaires pour spécifier l'objet et est également connue sous le nom de complexité algorithmique, complexité Solomonoff – Kolmogorov – Chaitin, complexité de la taille du programme , complexité descriptive ou entropie algorithmique . Il porte le nom d'Andrey Kolmogorov, qui a publié pour la première fois sur le sujet en 1963. | |
| Biais algorithmique: Le biais algorithmique décrit des erreurs systématiques et répétables dans un système informatique qui créent des résultats injustes, comme le fait de privilégier un groupe arbitraire d'utilisateurs par rapport à d'autres. Un biais peut apparaître en raison de nombreux facteurs, y compris, mais sans s'y limiter, la conception de l'algorithme ou l'utilisation ou les décisions non intentionnelles ou non prévues concernant la façon dont les données sont codées, collectées, sélectionnées ou utilisées pour entraîner l'algorithme. Les biais algorithmiques se trouvent sur toutes les plateformes, y compris, mais sans s'y limiter, les résultats des moteurs de recherche et les plateformes de médias sociaux, et peuvent avoir des impacts allant des violations de la vie privée par inadvertance au renforcement des préjugés sociaux de race, de sexe, de sexualité et d'ethnicité. L'étude du biais algorithmique s'intéresse surtout aux algorithmes qui reflètent une discrimination «systématique et injuste». Ce biais n'a été abordé que récemment dans des cadres juridiques, tels que le règlement général sur la protection des données de l'Union européenne de 2018. Une réglementation plus complète est nécessaire car les technologies émergentes deviennent de plus en plus avancées et opaques. | |
| Théorie des jeux algorithmiques: La théorie des jeux algorithmiques (AGT) est un domaine à l'intersection de la théorie des jeux et de l'informatique, avec pour objectif la compréhension et la conception d'algorithmes dans des environnements stratégiques. | |
| Gouvernement par algorithme: Le gouvernement par algorithme est une forme alternative de gouvernement ou d'ordre social, où l'utilisation d'algorithmes informatiques, en particulier de l'intelligence artificielle et de la blockchain, est appliquée à la réglementation, à l'application de la loi et généralement à tout aspect de la vie quotidienne comme le transport ou l'enregistrement foncier. Le terme «gouvernement par algorithme» est apparu dans la littérature académique comme une alternative à la «gouvernance algorithmique» en 2013. Terme apparenté, la régulation algorithmique est définie comme l'établissement de la norme, la surveillance et la modification du comportement au moyen d'algorithmes de calcul - l'automatisation du dans sa portée. | |
| La théorie des graphes: En mathématiques, la théorie des graphes est l'étude des graphes , qui sont des structures mathématiques utilisées pour modéliser les relations par paires entre les objets. Un graphe dans ce contexte est composé de sommets reliés par des arêtes . Une distinction est faite entre les graphes non orientés , où les arêtes relient deux sommets symétriquement, et les graphes orientés , où les arêtes relient deux sommets de manière asymétrique. Les graphiques sont l'un des principaux objets d'étude en mathématiques discrètes. | |
| Théorie de l'apprentissage algorithmique: La théorie de l'apprentissage algorithmique est un cadre mathématique pour l'analyse des problèmes et des algorithmes d'apprentissage automatique. Les synonymes incluent la théorie de l'apprentissage formel et l' inférence algorithmique inductive . La théorie de l'apprentissage algorithmique est différente de la théorie de l'apprentissage statistique en ce qu'elle n'utilise pas d'hypothèses et d'analyses statistiques. La théorie de l'apprentissage algorithmique et statistique concerne l'apprentissage automatique et peut donc être considérée comme des branches de la théorie de l'apprentissage informatique. | |
| Inférence algorithmique: L'inférence algorithmique rassemble de nouveaux développements dans les méthodes d'inférence statistique rendus possibles par les puissants dispositifs informatiques largement disponibles pour tout analyste de données. Les pierres angulaires dans ce domaine sont la théorie de l'apprentissage informatique, le calcul granulaire, la bioinformatique et, il y a longtemps, la probabilité structurelle. pour produire des résultats fiables. Cela déplace l'intérêt des mathématiciens de l'étude des lois de distribution vers les propriétés fonctionnelles des statistiques, et l'intérêt des informaticiens des algorithmes de traitement des données vers les informations qu'ils traitent. | |
| Théorie de l'information algorithmique: La théorie de l'information algorithmique (AIT) est une branche de l'informatique théorique qui s'intéresse à la relation entre le calcul et l'information d'objets générés de manière informatique, tels que des chaînes ou toute autre structure de données. En d'autres termes, il est montré dans la théorie de l'information algorithmique que l'incompressibilité computationnelle «imite» les relations ou les inégalités trouvées dans la théorie de l'information. Selon Gregory Chaitin, c'est "le résultat de la mise en place de la théorie de l'information de Shannon et de la théorie de la calculabilité de Turing dans un shaker et de secousses vigoureuses". | |
| Théorie de l'information algorithmique: La théorie de l'information algorithmique (AIT) est une branche de l'informatique théorique qui s'intéresse à la relation entre le calcul et l'information d'objets générés de manière informatique, tels que des chaînes ou toute autre structure de données. En d'autres termes, il est montré dans la théorie de l'information algorithmique que l'incompressibilité computationnelle «imite» les relations ou les inégalités trouvées dans la théorie de l'information. Selon Gregory Chaitin, c'est "le résultat de la mise en place de la théorie de l'information de Shannon et de la théorie de la calculabilité de Turing dans un shaker et de secousses vigoureuses". | |
| Problème indécidable: Dans la théorie de la calculabilité et la théorie de la complexité computationnelle, un problème indécidable est un problème de décision pour lequel il est prouvé qu'il est impossible de construire un algorithme qui conduit toujours à une réponse correcte par oui ou par non. Le problème de l'arrêt est un exemple: il peut être prouvé qu'il n'y a pas d'algorithme qui détermine correctement si des programmes arbitraires finissent par s'arrêter lorsqu'ils sont exécutés. | |
| Trading algorithmique: Le trading algorithmique est une méthode d'exécution d'ordres à l'aide d'instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente d'exploiter la vitesse et les ressources informatiques des ordinateurs par rapport aux commerçants humains. Au XXIe siècle, le trading algorithmique a gagné du terrain auprès des commerçants de détail et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les traders humains puissent y réagir. Une étude réalisée en 2019 a montré qu'environ 92% du trading sur le marché Forex était effectué par des algorithmes de trading plutôt que par des humains. | |
| Journalisme automatisé: Dans le journalisme automatisé , également appelé journalisme algorithmique ou journalisme robotisé , les articles de presse sont générés par des programmes informatiques. Grâce à un logiciel d'intelligence artificielle (IA), les histoires sont produites automatiquement par des ordinateurs plutôt que par des journalistes humains. Ces programmes interprètent, organisent et présentent les données de manière lisible par l'homme. En règle générale, le processus implique un algorithme qui analyse de grandes quantités de données fournies, sélectionne parmi un assortiment de structures d'articles préprogrammées, ordonne les points clés et insère des détails tels que des noms, des lieux, des montants, des classements, des statistiques et d'autres chiffres. La sortie peut également être personnalisée pour s'adapter à une certaine voix, tonalité ou style. | |
| ALGOL: ALGOL est une famille de langages de programmation impératifs développés à l'origine en 1958. ALGOL a fortement influencé de nombreux autres langages et a été la méthode standard de description d'algorithme utilisée par l'Association for Computing Machinery (ACM) dans les manuels et les sources académiques pendant plus de trente ans. | |
| Théorie de l'apprentissage algorithmique: La théorie de l'apprentissage algorithmique est un cadre mathématique pour l'analyse des problèmes et des algorithmes d'apprentissage automatique. Les synonymes incluent la théorie de l'apprentissage formel et l' inférence algorithmique inductive . La théorie de l'apprentissage algorithmique est différente de la théorie de l'apprentissage statistique en ce qu'elle n'utilise pas d'hypothèses et d'analyses statistiques. La théorie de l'apprentissage algorithmique et statistique concerne l'apprentissage automatique et peut donc être considérée comme des branches de la théorie de l'apprentissage informatique. | |
| Ordre juridique algorithmique: L'ordre juridique algorithmique peut faire référence à:
| |
| Ordre juridique algorithmique: L'ordre juridique algorithmique peut faire référence à:
| |
| Logique algorithmique: La logique algorithmique est un calcul de programmes qui permet l'expression des propriétés sémantiques des programmes par des formules logiques appropriées. Il fournit un cadre qui permet de prouver les formules à partir des axiomes des constructions de programme telles que les instructions d'assignation, d'itération et de composition et à partir des axiomes des structures de données en question voir Mirkowska & Salwicki (1987), Banachowski et al. (1977). | |
| Conception de mécanismes algorithmiques: La conception de mécanismes algorithmiques ( AMD ) se situe à l'intersection de la théorie des jeux économiques, de l'optimisation et de l'informatique. Le problème prototypique dans la conception de mécanismes est de concevoir un système pour plusieurs participants intéressés, de sorte que les actions intéressées des participants à l'équilibre conduisent à de bonnes performances du système. Les objectifs typiques étudiés comprennent la maximisation des revenus et la maximisation du bien-être social. La conception des mécanismes algorithmiques diffère de la conception des mécanismes économiques classiques à plusieurs égards. Il utilise généralement les outils analytiques de l'informatique théorique, tels que l'analyse des pires cas et les ratios d'approximation, contrairement à la conception de mécanisme classique en économie qui fait souvent des hypothèses de distribution sur les agents. Il considère également que les contraintes de calcul sont d'une importance capitale: les mécanismes qui ne peuvent pas être efficacement mis en œuvre en temps polynomial ne sont pas considérés comme des solutions viables à un problème de conception de mécanisme. Cela exclut souvent, par exemple, le mécanisme économique classique, la vente aux enchères Vickrey – Clarke – Groves. | |
| Algorithme: En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies, implémentables par ordinateur, généralement pour résoudre une classe de problèmes ou pour effectuer un calcul. Les algorithmes sont toujours sans équivoque et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. | |
| Composition algorithmique: La composition algorithmique est la technique d'utilisation d'algorithmes pour créer de la musique. | |
| Théorie computationnelle des nombres: En mathématiques et en informatique, la théorie computationnelle des nombres , également connue sous le nom de théorie algorithmique des nombres , est l'étude des méthodes de calcul pour étudier et résoudre les problèmes de théorie des nombres et de géométrie arithmétique, y compris les algorithmes de test de primalité et de factorisation d'entiers, trouver des solutions aux équations diophantiennes, et des méthodes explicites en géométrie arithmétique.La théorie des nombres informatiques a des applications à la cryptographie, y compris RSA, la cryptographie à courbe elliptique et la cryptographie post-quantique, et est utilisée pour étudier les conjectures et les problèmes ouverts dans la théorie des nombres, y compris l'hypothèse de Riemann, le Birch et Swinnerton- La conjecture de Dyer, la conjecture ABC, la conjecture de modularité, la conjecture Sato-Tate et les aspects explicites du programme de Langlands. | |
| Symposium sur la théorie des nombres algorithmiques: Le Symposium sur la théorie des nombres algorithmiques (ANTS) est une conférence universitaire biennale, organisée pour la première fois à Cornell en 1994, constituant un forum international pour la présentation de nouvelles recherches en théorie des nombres computationnelles. Ils sont consacrés aux aspects algorithmiques de la théorie des nombres, y compris la théorie élémentaire des nombres, la théorie algébrique des nombres, la théorie analytique des nombres, la géométrie des nombres, la géométrie arithmétique, les champs finis et la cryptographie. | |
| Commerce de paires: Un trading par paires ou un trading par paire est une stratégie de trading neutre permettant aux traders de profiter de pratiquement toutes les conditions du marché: tendance haussière, tendance baissière ou mouvement latéral. Cette stratégie est classée comme une stratégie d'arbitrage statistique et de négociation de convergence. Le trading par paires a été lancé par Gerry Bamberger, puis dirigé par le groupe quantitatif de Nunzio Tartaglia chez Morgan Stanley dans les années 1980. | |
| Paradigme algorithmique: Un paradigme algorithmique ou un paradigme de conception d'algorithme est un modèle ou un cadre générique qui sous-tend la conception d'une classe d'algorithmes. Un paradigme algorithmique est une abstraction supérieure à la notion d'algorithme, tout comme un algorithme est une abstraction supérieure à un programme informatique. | |
| Brevet logiciel: Un brevet logiciel est un brevet sur un logiciel, tel qu'un programme informatique, des bibliothèques, une interface utilisateur ou un algorithme. | |
| Brevet logiciel: Un brevet logiciel est un brevet sur un logiciel, tel qu'un programme informatique, des bibliothèques, une interface utilisateur ou un algorithme. | |
| Tarification algorithmique: La tarification algorithmique consiste à fixer automatiquement le prix demandé pour les articles à vendre, afin de maximiser les profits du vendeur. | |
| Probabilité algorithmique: Dans la théorie de l'information algorithmique, la probabilité algorithmique , également connue sous le nom de probabilité de Solomonoff , est une méthode mathématique d'attribution d'une probabilité antérieure à une observation donnée. Il a été inventé par Ray Solomonoff dans les années 1960. Il est utilisé dans la théorie de l'inférence inductive et les analyses d'algorithmes. Dans sa théorie générale de l'inférence inductive, Solomonoff utilise le prior obtenu par cette formule, dans la règle de Bayes pour la prédiction. | |
| Algorithme: En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies, implémentables par ordinateur, généralement pour résoudre une classe de problèmes ou pour effectuer un calcul. Les algorithmes sont toujours sans équivoque et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. | |
| Débogage de programme algorithmique: Le débogage algorithmique est une technique de débogage qui compare les résultats des sous-calculs avec ce que le programmeur a prévu. La technique construit une représentation interne de tous les calculs et sous-calculs effectués pendant l'exécution d'un programme bogué, puis interroge le programmeur sur l'exactitude de ces calculs. En posant des questions au programmeur ou en utilisant une spécification formelle, le système peut identifier précisément où dans un programme se trouve un bogue. Les techniques de débogage peuvent réduire considérablement le temps et les efforts consacrés au débogage. | |
| Radicalisation algorithmique: L'hypothèse de la radicalisation algorithmique est le concept selon lequel les algorithmes sur les sites de médias sociaux populaires tels que YouTube et Facebook conduisent les utilisateurs vers un contenu de plus en plus extrême au fil du temps, conduisant à leur radicalisation vers des opinions politiques extrémistes. | |
| Radicalisation algorithmique: L'hypothèse de la radicalisation algorithmique est le concept selon lequel les algorithmes sur les sites de médias sociaux populaires tels que YouTube et Facebook conduisent les utilisateurs vers un contenu de plus en plus extrême au fil du temps, conduisant à leur radicalisation vers des opinions politiques extrémistes. | |
| Séquence algorithmiquement aléatoire: Intuitivement, une séquence algorithmiquement aléatoire est une séquence de chiffres binaires qui semble aléatoire à tout algorithme fonctionnant sur une machine de Turing universelle. La notion peut être appliquée de manière analogue aux séquences sur n'importe quel alphabet fini. Les séquences aléatoires sont des objets d'étude clés en théorie algorithmique de l'information. | |
| Réduction (complexité): Dans la théorie de la calculabilité et la théorie de la complexité computationnelle, une réduction est un algorithme pour transformer un problème en un autre problème. Une réduction suffisamment efficace d'un problème à un autre peut être utilisée pour montrer que le deuxième problème est au moins aussi difficile que le premier. | |
| Régulation algorithmique: La régulation algorithmique peut faire référence à:
| |
| Squelette algorithmique: En informatique, les squelettes algorithmiques , ou modèles de parallélisme , sont un modèle de programmation parallèle de haut niveau pour le calcul parallèle et distribué. | |
| Stabilité (théorie de l'apprentissage): La stabilité , également connue sous le nom de stabilité algorithmique , est une notion dans la théorie de l'apprentissage informatique de la façon dont un algorithme d'apprentissage automatique est perturbé par de petits changements dans ses entrées. Un algorithme d'apprentissage stable est un algorithme pour lequel la prédiction ne change pas beaucoup lorsque les données d'apprentissage sont légèrement modifiées. Par exemple, considérons un algorithme d'apprentissage automatique qui est formé pour reconnaître les lettres manuscrites de l'alphabet, en utilisant 1000 exemples de lettres manuscrites et leurs étiquettes comme ensemble d'apprentissage. Une façon de modifier cet ensemble d'apprentissage consiste à omettre un exemple, de sorte que seuls 999 exemples de lettres manuscrites et leurs étiquettes soient disponibles. Un algorithme d'apprentissage stable produirait un classificateur similaire avec les ensembles d'apprentissage à 1 000 et 999 éléments. | |
| Machine d'état algorithmique: La méthode de la machine à états algorithmique ( ASM ) est une méthode de conception de machines à états finis (FSM) initialement développée par Thomas E. Osborne à l'Université de Californie à Berkeley (UCB) depuis 1960, introduite et mise en œuvre chez Hewlett-Packard en 1968, formalisé et développé depuis 1967 et écrit par Christopher R. Clare depuis 1970. Il est utilisé pour représenter des schémas de circuits intégrés numériques. Le diagramme ASM est comme un diagramme d'état mais plus structuré et, par conséquent, plus facile à comprendre. Un diagramme ASM est une méthode de description des opérations séquentielles d'un système numérique. | |
| Synthèse de haut niveau: La synthèse de haut niveau ( HLS ), parfois appelée synthèse C, synthèse au niveau du système électronique (ESL), synthèse algorithmique ou synthèse comportementale , est un processus de conception automatisé qui interprète une description algorithmique d'un comportement souhaité et crée un matériel numérique qui met en œuvre ce comportement. | |
| Collusion tacite: La collusion tacite est une collusion entre concurrents qui n'échangent pas explicitement des informations et ne parviennent pas à un accord sur la coordination des comportements. Il existe deux types de collusion tacite: l'action concertée et le parallélisme conscient . Dans une action concertée également appelée activité concertée , les concurrents échangent des informations sans parvenir à un agrément explicite, tandis que le parallélisme conscient n'implique aucune communication. Dans les deux types de collusion tacite, les concurrents acceptent de jouer une certaine stratégie sans le dire explicitement . Elle est également appelée coordination oligopolistique des prix ou parallélisme tacite . | |
| Technique algorithmique: En mathématiques et en informatique, une technique algorithmique est une approche générale pour la mise en œuvre d'un processus ou d'un calcul. | |
| Technique algorithmique: En mathématiques et en informatique, une technique algorithmique est une approche générale pour la mise en œuvre d'un processus ou d'un calcul. | |
| Complexité temporelle: En informatique, la complexité temporelle est la complexité de calcul qui décrit la quantité de temps informatique nécessaire pour exécuter un algorithme. La complexité temporelle est généralement estimée en comptant le nombre d'opérations élémentaires effectuées par l'algorithme, en supposant que chaque opération élémentaire prend un temps fixe à effectuer. Ainsi, le temps mis et le nombre d'opérations élémentaires effectuées par l'algorithme sont considérés comme différant au plus d'un facteur constant. | |
| Topologie de calcul: La topologie algorithmique , ou topologie de calcul , est un sous-domaine de la topologie avec un chevauchement avec des domaines de l'informatique, en particulier, la géométrie de calcul et la théorie de la complexité de calcul. | |
| Trading algorithmique: Le trading algorithmique est une méthode d'exécution d'ordres à l'aide d'instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente d'exploiter la vitesse et les ressources informatiques des ordinateurs par rapport aux commerçants humains. Au XXIe siècle, le trading algorithmique a gagné du terrain auprès des commerçants de détail et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les traders humains puissent y réagir. Une étude réalisée en 2019 a montré qu'environ 92% du trading sur le marché Forex était effectué par des algorithmes de trading plutôt que par des humains. | |
| Trading algorithmique: Le trading algorithmique est une méthode d'exécution d'ordres à l'aide d'instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente d'exploiter la vitesse et les ressources informatiques des ordinateurs par rapport aux commerçants humains. Au XXIe siècle, le trading algorithmique a gagné du terrain auprès des commerçants de détail et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les traders humains puissent y réagir. Une étude réalisée en 2019 a montré qu'environ 92% du trading sur le marché Forex était effectué par des algorithmes de trading plutôt que par des humains. | |
| Transparence algorithmique: La transparence algorithmique est le principe selon lequel les facteurs qui influencent les décisions prises par les algorithmes doivent être visibles ou transparents pour les personnes qui utilisent, régulent et sont affectées par les systèmes qui utilisent ces algorithmes. Bien que l'expression ait été inventée en 2016 par Nicholas Diakopoulos et Michael Koliska sur le rôle des algorithmes dans le choix du contenu des services de journalisme numérique, le principe sous-jacent remonte aux années 1970 et à l'essor des systèmes automatisés de notation du crédit à la consommation. | |
| Lemme de régularité de Szemerédi: Le lemme de régularité de Szemerédi est l'un des outils les plus puissants de la théorie des graphes extrémaux, en particulier dans l'étude des grands graphes denses. Il déclare que les sommets de chaque graphe suffisamment grand peuvent être partitionnés en un nombre limité de parties de sorte que les arêtes entre les différentes parties se comportent de manière presque aléatoire. | |
| Lemme de régularité de Szemerédi: Le lemme de régularité de Szemerédi est l'un des outils les plus puissants de la théorie des graphes extrémaux, en particulier dans l'étude des grands graphes denses. Il déclare que les sommets de chaque graphe suffisamment grand peuvent être partitionnés en un nombre limité de parties de sorte que les arêtes entre les différentes parties se comportent de manière presque aléatoire. | |
| Lemme de régularité de Szemerédi: Le lemme de régularité de Szemerédi est l'un des outils les plus puissants de la théorie des graphes extrémaux, en particulier dans l'étude des grands graphes denses. Il déclare que les sommets de chaque graphe suffisamment grand peuvent être partitionnés en un nombre limité de parties de sorte que les arêtes entre les différentes parties se comportent de manière presque aléatoire. | |
| Algorithmica: Algorithmica est une revue scientifique mensuelle à comité de lecture axée sur la recherche et l'application d'algorithmes informatiques. La revue a été créée en 1986 et est publiée par Springer Science + Business Media. Le rédacteur en chef est Ming-Yang Kao. Le sujet couvert comprend le tri, la recherche, les structures de données, la géométrie de calcul et la programmation linéaire, le VLSI, l'informatique distribuée, le traitement parallèle, la conception assistée par ordinateur, la robotique, les graphiques, la conception de bases de données et les outils logiciels. | |
| Algorithme: En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies, implémentables par ordinateur, généralement pour résoudre une classe de problèmes ou pour effectuer un calcul. Les algorithmes sont toujours sans équivoque et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. | |
| Art algorithmique: L'art algorithmique ou l' art de l' algorithme est un art, principalement de l'art visuel, dans lequel la conception est générée par un algorithme. Artistes algorithmiques sont parfois appelés algoristes. | |
| Composition algorithmique: La composition algorithmique est la technique d'utilisation d'algorithmes pour créer de la musique. | |
| Problème indécidable: Dans la théorie de la calculabilité et la théorie de la complexité computationnelle, un problème indécidable est un problème de décision pour lequel il est prouvé qu'il est impossible de construire un algorithme qui conduit toujours à une réponse correcte par oui ou par non. Le problème de l'arrêt est un exemple: il peut être prouvé qu'il n'y a pas d'algorithme qui détermine correctement si des programmes arbitraires finissent par s'arrêter lorsqu'ils sont exécutés. | |
| Séquence algorithmiquement aléatoire: Intuitivement, une séquence algorithmiquement aléatoire est une séquence de chiffres binaires qui semble aléatoire à tout algorithme fonctionnant sur une machine de Turing universelle. La notion peut être appliquée de manière analogue aux séquences sur n'importe quel alphabet fini. Les séquences aléatoires sont des objets d'étude clés en théorie algorithmique de l'information. | |
| Séquence algorithmiquement aléatoire: Intuitivement, une séquence algorithmiquement aléatoire est une séquence de chiffres binaires qui semble aléatoire à tout algorithme fonctionnant sur une machine de Turing universelle. La notion peut être appliquée de manière analogue aux séquences sur n'importe quel alphabet fini. Les séquences aléatoires sont des objets d'étude clés en théorie algorithmique de l'information. | |
| Langage récursif: En mathématiques, en logique et en informatique, un langage formel est appelé récursif s'il s'agit d'un sous-ensemble récursif de l'ensemble de toutes les séquences finies possibles sur l'alphabet de la langue. De manière équivalente, un langage formel est récursif s'il existe une machine de Turing totale qui, lorsqu'on lui donne une séquence finie de symboles en entrée, l'accepte si elle appartient au langage et la rejette autrement. Les langages récursifs sont également appelés décidables . | |
| Problème indécidable: Dans la théorie de la calculabilité et la théorie de la complexité computationnelle, un problème indécidable est un problème de décision pour lequel il est prouvé qu'il est impossible de construire un algorithme qui conduit toujours à une réponse correcte par oui ou par non. Le problème de l'arrêt est un exemple: il peut être prouvé qu'il n'y a pas d'algorithme qui détermine correctement si des programmes arbitraires finissent par s'arrêter lorsqu'ils sont exécutés. | |
| Algorithmique: L'algorithmique est l'étude systématique de la conception et de l'analyse d'algorithmes. Il s'agit d'un domaine fondamental et l'un des plus anciens de l'informatique. Il comprend la conception d'algorithmes, l'art de construire une procédure capable de résoudre efficacement un problème spécifique ou une classe de problème, la théorie de la complexité algorithmique, l'étude de l'estimation de la dureté des problèmes en étudiant les propriétés de l'algorithme qui les résout, ou l'analyse d'algorithmes. , la science de l'étude des propriétés d'un problème, comme la quantification des ressources en temps et en espace mémoire nécessaires à cet algorithme pour résoudre ce problème. | |
| Algorithmics Inc.: Algorithmics était une société basée à Toronto, en Ontario, fondée par Ron Dembo, qui fournissait des logiciels de gestion des risques aux institutions financières. Fondée en 1989, Algorithmics employait plus de 850 personnes dans 23 bureaux mondiaux et servait plus de 350 clients, dont 25 des 30 plus grandes banques du monde, et plus des deux tiers du CRO Forum des principaux assureurs. | |
| Algorithmics Inc.: Algorithmics était une société basée à Toronto, en Ontario, fondée par Ron Dembo, qui fournissait des logiciels de gestion des risques aux institutions financières. Fondée en 1989, Algorithmics employait plus de 850 personnes dans 23 bureaux mondiaux et servait plus de 350 clients, dont 25 des 30 plus grandes banques du monde, et plus des deux tiers du CRO Forum des principaux assureurs. | |
| Algorithmes de résolution de Sudoku: Un Sudoku standard contient 81 cellules, dans une grille 9 × 9, et a 9 cases, chaque case étant l'intersection de la première, du milieu ou des 3 dernières lignes et des 3 premières, du milieu ou des 3 dernières colonnes. Chaque cellule peut contenir un nombre de un à neuf, et chaque nombre ne peut apparaître qu'une seule fois dans chaque ligne, colonne et case. Un Sudoku commence avec des cellules contenant des nombres ( indices ), et le but est de résoudre les cellules restantes. Les bons Sudokus ont une solution. Les joueurs et les enquêteurs utilisent un large éventail d'algorithmes informatiques pour résoudre les Sudokus, étudier leurs propriétés et créer de nouvelles énigmes, y compris des Sudokus avec des symétries intéressantes et d'autres propriétés. | |
| Algorithmes de résolution de Sudoku: Un Sudoku standard contient 81 cellules, dans une grille 9 × 9, et a 9 cases, chaque case étant l'intersection de la première, du milieu ou des 3 dernières lignes et des 3 premières, du milieu ou des 3 dernières colonnes. Chaque cellule peut contenir un nombre de un à neuf, et chaque nombre ne peut apparaître qu'une seule fois dans chaque ligne, colonne et case. Un Sudoku commence avec des cellules contenant des nombres ( indices ), et le but est de résoudre les cellules restantes. Les bons Sudokus ont une solution. Les joueurs et les enquêteurs utilisent un large éventail d'algorithmes informatiques pour résoudre les Sudokus, étudier leurs propriétés et créer de nouvelles énigmes, y compris des Sudokus avec des symétries intéressantes et d'autres propriétés. | |
| Algorithme: En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies, implémentables par ordinateur, généralement pour résoudre une classe de problèmes ou pour effectuer un calcul. Les algorithmes sont toujours sans équivoque et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. | |
| Conception assistée par algorithmes (AAD): La conception assistée par algorithmes (AAD) est l'utilisation d'éditeurs d'algorithmes spécifiques pour aider à la création, la modification, l'analyse ou l'optimisation d'une conception. Les algorithmes-éditeurs sont généralement intégrés à des progiciels de modélisation 3D et lisent plusieurs langages de programmation, à la fois scriptés ou visuels. La conception assistée par algorithmes permet aux concepteurs de surmonter les limites des logiciels de CAO traditionnels et des logiciels d'infographie 3D, atteignant un niveau de complexité qui dépasse la possibilité humaine d'interagir avec des objets numériques. L'acronyme apparaît pour la première fois dans le livre AAD Algorithms-Aided Design, Parametric Strategies using Grasshopper, publié par Arturo Tedeschi en 2014. | |
| Algorithmes (journal): Algorithms est une revue scientifique mensuelle en libre accès, revue par des pairs, sur les mathématiques, couvrant la conception, l'analyse et les expériences sur les algorithmes. Le journal est publié par MDPI et a été créé en 2008. Le rédacteur en chef fondateur était Kazuo Iwama. De mai 2014 à septembre 2019, le rédacteur en chef était Henning Fernau. Le rédacteur en chef actuel est Frank Werner. | |
| Algorithmes (journal): Algorithms est une revue scientifique mensuelle en libre accès, revue par des pairs, sur les mathématiques, couvrant la conception, l'analyse et les expériences sur les algorithmes. Le journal est publié par MDPI et a été créé en 2008. Le rédacteur en chef fondateur était Kazuo Iwama. De mai 2014 à septembre 2019, le rédacteur en chef était Henning Fernau. Le rédacteur en chef actuel est Frank Werner. | |
| Algorithmes + Structures de données = Programmes: Algorithms + Data Structures = Programs est un livre de 1976 écrit par Niklaus Wirth couvrant certains des sujets fondamentaux de la programmation informatique, en particulier le fait que les algorithmes et les structures de données sont intrinsèquement liés. Par exemple, si l'on a une liste triée, on utilisera un algorithme de recherche optimal pour les listes triées. | ![]() |
| Catégorie: Publication scientifique et académique de revues académiques: | |
| Catégorie: Publication scientifique et académique de revues académiques: | |
| Catégorie: Publication scientifique et académique de revues académiques: | |
| Machine d'état algorithmique: La méthode de la machine à états algorithmique ( ASM ) est une méthode de conception de machines à états finis (FSM) initialement développée par Thomas E. Osborne à l'Université de Californie à Berkeley (UCB) depuis 1960, introduite et mise en œuvre chez Hewlett-Packard en 1968, formalisé et développé depuis 1967 et écrit par Christopher R. Clare depuis 1970. Il est utilisé pour représenter des schémas de circuits intégrés numériques. Le diagramme ASM est comme un diagramme d'état mais plus structuré et, par conséquent, plus facile à comprendre. Un diagramme ASM est une méthode de description des opérations séquentielles d'un système numérique. | |
| Algorithmes déverrouillés: Algorithms Unlocked est un livre de Thomas H. Cormen sur les principes de base et les applications des algorithmes informatiques. Le livre se compose de dix chapitres et traite des thèmes de la recherche, du tri, des algorithmes graphiques de base, du traitement des chaînes, des principes fondamentaux de la cryptographie et de la compression de données, ainsi qu'une introduction à la théorie du calcul. | |
| Algorithmes et combinatoires: Algorithms and Combinatorics est une série de livres en mathématiques, et en particulier en combinatoire et en conception et analyse d'algorithmes. Il est publié par Springer Science + Business Media et a été fondé en 1987. | |
| Conférences SWAT et WADS: WADS , le Symposium sur les algorithmes et les structures de données , est une conférence universitaire internationale dans le domaine de l'informatique, axée sur les algorithmes et les structures de données. WADS a lieu tous les deux ans, généralement au Canada et toujours en Amérique du Nord. Il se tient en alternance avec sa conférence sœur, le Scandinavian Symposium and Workshops on Algorithm Theory (SWAT) , qui se tient généralement en Scandinavie et toujours en Europe du Nord. Historiquement, les actes des deux conférences ont été publiés par Springer Verlag dans leur série Notes de cours en informatique. Springer continue de publier les actes du WADS, mais à partir de 2016, les actes du SWAT sont désormais publiés par Dagstuhl via leurs Leibniz International Proceedings in Informatics. | |
| Conférences SWAT et WADS: WADS , le Symposium sur les algorithmes et les structures de données , est une conférence universitaire internationale dans le domaine de l'informatique, axée sur les algorithmes et les structures de données. WADS a lieu tous les deux ans, généralement au Canada et toujours en Amérique du Nord. Il se tient en alternance avec sa conférence sœur, le Scandinavian Symposium and Workshops on Algorithm Theory (SWAT) , qui se tient généralement en Scandinavie et toujours en Europe du Nord. Historiquement, les actes des deux conférences ont été publiés par Springer Verlag dans leur série Notes de cours en informatique. Springer continue de publier les actes du WADS, mais à partir de 2016, les actes du SWAT sont désormais publiés par Dagstuhl via leurs Leibniz International Proceedings in Informatics. | |
| Algorithmes de récupération et d'isolement exploitant la sémantique: En informatique, Algorithms for Recovery and Isolation Exploiting Semantics , ou ARIES est un algorithme de récupération conçu pour fonctionner avec une approche de base de données sans force et sans vol; il est utilisé par IBM DB2, Microsoft SQL Server et de nombreux autres systèmes de base de données. IBM Fellow Dr. C. Mohan est le principal inventeur de la famille d'algo ARIES. | |
| Algorithmes de récupération et d'isolement exploitant la sémantique: En informatique, Algorithms for Recovery and Isolation Exploiting Semantics , ou ARIES est un algorithme de récupération conçu pour fonctionner avec une approche de base de données sans force et sans vol; il est utilisé par IBM DB2, Microsoft SQL Server et de nombreux autres systèmes de base de données. IBM Fellow Dr. C. Mohan est le principal inventeur de la famille d'algo ARIES. | |
| Assistance cardiaque avancée: Le maintien de la vie cardiaque avancé ou le maintien de la vie cardiovasculaire avancé , souvent désigné par son acronyme, « ACLS », fait référence à un ensemble d'algorithmes cliniques pour le traitement urgent de l'arrêt cardiaque, des accidents vasculaires cérébraux, de l'infarctus du myocarde et d'autres urgences cardiovasculaires potentiellement mortelles. En dehors de l'Amérique du Nord, Advanced Life Support (ALS) est utilisé. | |
| Planification et ordonnancement automatisés: La planification et la planification automatisées , parfois désignées simplement comme la planification de l'IA , est une branche de l'intelligence artificielle qui concerne la réalisation de stratégies ou de séquences d'action, généralement destinées à être exécutées par des agents intelligents, des robots autonomes et des véhicules sans pilote. Contrairement aux problèmes classiques de contrôle et de classification, les solutions sont complexes et doivent être découvertes et optimisées dans un espace multidimensionnel. La planification est également liée à la théorie de la décision. | |
| Sinus: En mathématiques, le sinus est une fonction trigonométrique d'un angle. Le sinus d'un angle aigu est défini dans le contexte d'un triangle rectangle: pour l'angle spécifié, c'est le rapport entre la longueur du côté opposé à cet angle et la longueur du côté le plus long du triangle. Pour un angle , la fonction sinus est désignée simplement par . | |
| Algorithmes de calcul de la variance: Les algorithmes de calcul de la variance jouent un rôle majeur dans les statistiques de calcul. Une difficulté clé dans la conception de bons algorithmes pour ce problème est que les formules pour la variance peuvent impliquer des sommes de carrés, ce qui peut conduire à une instabilité numérique ainsi qu'à un débordement arithmétique lorsqu'il s'agit de grandes valeurs. | |
| Inférence causale: L'inférence causale est le processus de détermination de l'effet indépendant et réel d'un phénomène particulier qui fait partie d'un système plus vaste. La principale différence entre l'inférence causale et l'inférence de l'association est que l'inférence causale analyse la réponse d'une variable d'effet lorsqu'une cause de la variable d'effet est modifiée. La science des raisons pour lesquelles les choses se produisent s'appelle l'étiologie. On dit que l'inférence causale fournit la preuve de la causalité théorisée par le raisonnement causal. | |
| Clustering de flux de données: En informatique, le regroupement de flux de données est défini comme le regroupement de données qui arrivent en continu telles que les enregistrements téléphoniques, les données multimédias, les transactions financières, etc. Le regroupement de flux de données est généralement étudié comme un algorithme de streaming et l'objectif est, étant donné une séquence de points, pour construire un bon clustering du flux, en utilisant une petite quantité de mémoire et de temps. | |
| Cartographie des couleurs: La cartographie des couleurs (photographie) est une fonction qui mappe (transforme) les couleurs d'une image (source) aux couleurs d'une autre image (cible). Un mappage de couleurs peut être appelé l'algorithme qui aboutit à la fonction de mappage ou l'algorithme qui transforme les couleurs de l'image. Le mappage des couleurs est aussi parfois appelé transfert de couleur ou, lorsque des images en niveaux de gris sont impliquées, fonction de transfert de luminosité (BTF) ; il peut également être appelé étalonnage de caméra photométrique ou étalonnage de caméra radiométrique . | |
| Optimisation combinatoire: L'optimisation combinatoire est un sous-domaine de l'optimisation mathématique qui est lié à la recherche opérationnelle, à la théorie des algorithmes et à la théorie de la complexité informatique. Il a des applications importantes dans plusieurs domaines, notamment l'intelligence artificielle, l'apprentissage automatique, la théorie des enchères, le génie logiciel, les mathématiques appliquées et l'informatique théorique. | |
| Fermeture transitive: En mathématiques, la fermeture transitive d'une relation binaire R sur un ensemble X est la plus petite relation sur X qui contient R et est transitive. Pour les ensembles finis, «le plus petit» peut être pris dans son sens habituel, celui d'avoir le moins de paires liées; pour les ensembles infinis, c'est l'unique sur-ensemble transitif minimal de R. | |
| Problème de satisfaction des contraintes: Les problèmes de satisfaction de contraintes ( CSP ) sont des questions mathématiques définies comme un ensemble d'objets dont l'état doit satisfaire un certain nombre de contraintes ou de limitations. Les CSP représentent les entités d'un problème sous la forme d'un ensemble homogène de contraintes finies sur des variables, qui est résolu par des méthodes de satisfaction de contraintes. Les CSP font l'objet d'intenses recherches à la fois en intelligence artificielle et en recherche opérationnelle, car la régularité de leur formulation fournit une base commune pour analyser et résoudre les problèmes de nombreuses familles apparemment indépendantes. Les CSP présentent souvent une complexité élevée, nécessitant une combinaison d'heuristiques et de méthodes de recherche combinatoire pour être résolues dans un délai raisonnable. La programmation par contraintes (CP) est le domaine de recherche qui se concentre spécifiquement sur la résolution de ces types de problèmes. De plus, le problème de satisfiabilité booléenne (SAT), les théories modulo de satisfiabilité (SMT), la programmation d'entiers mixtes (MIP) et la programmation d'ensembles de réponses (ASP) sont tous des domaines de recherche axés sur la résolution de formes particulières du problème de satisfaction des contraintes. | |
| Problème de satisfaction des contraintes: Les problèmes de satisfaction de contraintes ( CSP ) sont des questions mathématiques définies comme un ensemble d'objets dont l'état doit satisfaire un certain nombre de contraintes ou de limitations. Les CSP représentent les entités d'un problème sous la forme d'un ensemble homogène de contraintes finies sur des variables, qui est résolu par des méthodes de satisfaction de contraintes. Les CSP font l'objet d'intenses recherches à la fois en intelligence artificielle et en recherche opérationnelle, car la régularité de leur formulation fournit une base commune pour analyser et résoudre les problèmes de nombreuses familles apparemment indépendantes. Les CSP présentent souvent une complexité élevée, nécessitant une combinaison d'heuristiques et de méthodes de recherche combinatoire pour être résolues dans un délai raisonnable. La programmation par contraintes (CP) est le domaine de recherche qui se concentre spécifiquement sur la résolution de ces types de problèmes. De plus, le problème de satisfiabilité booléenne (SAT), les théories modulo de satisfiabilité (SMT), la programmation d'entiers mixtes (MIP) et la programmation d'ensembles de réponses (ASP) sont tous des domaines de recherche axés sur la résolution de formes particulières du problème de satisfaction des contraintes. | |
| Classification d'image contextuelle: La classification d'images contextuelles , un sujet de reconnaissance de formes en vision par ordinateur, est une approche de classification basée sur des informations contextuelles dans les images. «Contextuel» signifie que cette approche se concentre sur la relation des pixels proches, également appelée voisinage. Le but de cette approche est de classer les images en utilisant les informations contextuelles. | |
| Apprentissage par jeu de contraste: L'apprentissage par ensembles de contrastes est une forme d'apprentissage de règles d'association qui cherche à identifier des différences significatives entre des groupes séparés en procédant à la rétro-ingénierie des prédicteurs clés qui identifient pour chaque groupe particulier. Par exemple, étant donné un ensemble d'attributs pour un groupe d'étudiants, un apprenant de jeu de contraste identifierait les caractéristiques contrastées entre les étudiants qui recherchent un baccalauréat et ceux qui travaillent pour obtenir un doctorat. | |
| Apprentissage par renforcement: L'apprentissage par renforcement ( RL ) est un domaine d'apprentissage automatique qui s'intéresse à la manière dont les agents intelligents doivent agir dans un environnement afin de maximiser la notion de récompense cumulative. L'apprentissage par renforcement est l'un des trois paradigmes de base de l'apprentissage automatique, aux côtés de l'apprentissage supervisé et de l'apprentissage non supervisé. | |
| Clustering de corrélation: Le clustering est le problème du partitionnement des points de données en groupes en fonction de leur similitude. Le clustering de corrélation fournit une méthode pour regrouper un ensemble d'objets dans le nombre optimal de clusters sans spécifier ce nombre à l'avance. | |
| Détection de cycle: En informatique, la détection de cycle ou la recherche de cycle est le problème algorithmique de la recherche d'un cycle dans une séquence de valeurs de fonction itérées. | |
| L'analyse des données: L'analyse des données est un processus d'inspection, de nettoyage, de transformation et de modélisation des données dans le but de découvrir des informations utiles, d'éclairer des conclusions et de soutenir la prise de décision. L'analyse des données a de multiples facettes et approches, englobant diverses techniques sous une variété de noms, et est utilisée dans différents domaines des affaires, des sciences et des sciences sociales. Dans le monde des affaires d'aujourd'hui, l'analyse des données joue un rôle dans la prise de décisions plus scientifiques et aide les entreprises à fonctionner plus efficacement. | |
| Clustering de flux de données: En informatique, le regroupement de flux de données est défini comme le regroupement de données qui arrivent en continu telles que les enregistrements téléphoniques, les données multimédias, les transactions financières, etc. Le regroupement de flux de données est généralement étudié comme un algorithme de streaming et l'objectif est, étant donné une séquence de points, pour construire un bon clustering du flux, en utilisant une petite quantité de mémoire et de temps. | |
| Dématriçage: Un algorithme de dématriçage est un processus d'image numérique utilisé pour reconstruire une image en couleur à partir des échantillons de couleur incomplets sortis d'un capteur d'image recouvert d'un réseau de filtres colorés (CFA). Il est également connu sous le nom d' interpolation CFA ou de reconstruction des couleurs . | |
| Insuffisance cardiaque: L'insuffisance cardiaque ( IC ), également connue sous le nom d' insuffisance cardiaque congestive ( ICC ), d' insuffisance cardiaque ( congestive ) ( CCF ) et de décompensatio cordis , se produit lorsque le cœur est incapable de pomper suffisamment pour maintenir le flux sanguin afin de répondre aux besoins des tissus corporels. métabolisme. Les signes et symptômes de l'insuffisance cardiaque comprennent généralement un essoufflement, une fatigue excessive et un gonflement des jambes. L'essoufflement est généralement pire avec l'exercice ou en position couchée, et peut réveiller la personne la nuit. Une capacité limitée à faire de l'exercice est également une caractéristique commune. La douleur thoracique, y compris l'angine de poitrine, ne survient généralement pas en raison d'une insuffisance cardiaque. | |
| Optimisation des contraintes distribuées: L'optimisation des contraintes distribuées est l'analogue distribué de l'optimisation des contraintes. Un DCOP est un problème dans lequel un groupe d'agents doit choisir de manière distribuée des valeurs pour un ensemble de variables de telle sorte que le coût d'un ensemble de contraintes sur les variables soit minimisé. | |
| Regroupement de documents: Le regroupement de documents est l'application de l'analyse de cluster à des documents textuels. Il a des applications dans l'organisation automatique de documents, l'extraction de sujets et la recherche ou le filtrage rapide d'informations. | |
| Analyse de la mise en page du document: Dans la vision par ordinateur ou le traitement du langage naturel, l' analyse de la mise en page d'un document est le processus d'identification et de catégorisation des régions d'intérêt dans l'image numérisée d'un document texte. Un système de lecture nécessite la segmentation des zones de texte à partir des zones non textuelles et la disposition dans leur ordre de lecture correct. La détection et l'étiquetage des différentes zones sous forme de corps de texte, d'illustrations, de symboles mathématiques et de tableaux incorporés dans un document s'appellent analyse de mise en page géométrique . Mais les zones de texte jouent différents rôles logiques à l'intérieur du document et ce type d'étiquetage sémantique est la portée de l' analyse de la mise en page logique . | |
| Coloration des bords: Dans la théorie des graphes, une coloration d'arête d'un graphe est une affectation de "couleurs" aux arêtes du graphe de sorte qu'aucun arête incidente n'ait la même couleur. Par exemple, la figure de droite montre une coloration des bords d'un graphique par les couleurs rouge, bleu et vert. La coloration des bords est l'un des différents types de coloration de graphique. Le problème de la coloration des bords demande s'il est possible de colorer les bords d'un graphe donné en utilisant au plus k couleurs différentes, pour une valeur donnée de k , ou avec le moins de couleurs possible. Le nombre minimum requis de couleurs pour les arêtes d'un graphique donné est appelé l' indice chromatique du graphique. Par exemple, les bords du graphique dans l'illustration peuvent être colorés par trois couleurs mais ne peuvent pas être colorés par deux couleurs, de sorte que le graphique affiché a un indice chromatique trois. | |
| Factorisation entière: En théorie des nombres, la factorisation d'entiers est la décomposition d'un nombre composé en un produit d'entiers plus petits. Si ces facteurs sont davantage restreints aux nombres premiers, le processus est appelé factorisation des nombres premiers . | |
| Polynôme irréductible: En mathématiques, un polynôme irréductible est, grosso modo, un polynôme qui ne peut pas être factorisé dans le produit de deux polynômes non constants. La propriété d'irréductibilité dépend de la nature des coefficients acceptés pour les facteurs possibles, c'est-à-dire du champ ou de l'anneau auquel sont supposés appartenir les coefficients du polynôme et ses facteurs éventuels. Par exemple, le polynôme x 2 - 2 est un polynôme à coefficients entiers, mais, comme chaque entier est également un nombre réel, c'est aussi un polynôme à coefficients réels. Il est irréductible s'il est considéré comme un polynôme à coefficients entiers, mais il est factorisé comme s'il est considéré comme un polynôme à coefficients réels. On dit que le polynôme x 2 - 2 est irréductible sur les entiers mais pas sur les réels. | |
| Arbre couvrant minimum euclidien: L' arbre couvrant minimum euclidien ou EMST est un arbre couvrant minimum d'un ensemble de n points dans le plan, où le poids du bord entre chaque paire de points est la distance euclidienne entre ces deux points. En termes plus simples, un EMST connecte un ensemble de points en utilisant des lignes de telle sorte que la longueur totale de toutes les lignes est minimisée et que tout point peut être atteint de n'importe quel autre en suivant les lignes. | |
| Arbre couvrant minimum capacitif: L'arbre couvrant minimum capacité est un arbre couvrant à coût minimal d'un graphe qui a un nœud racine désigné et satisfait à la contrainte de capacité . La contrainte de capacité garantit que tous les sous-arbres incident sur le nœud racine avoir pas plus de nœuds. Si les nœuds d'arbre ont des poids, alors la contrainte de capacité peut être interprétée comme suit: la somme des poids dans n'importe quel sous-arbre ne doit pas être supérieure à . Les arêtes reliant les sous-graphes au nœud racine sont appelées portes . Trouver la solution optimale est NP-difficile. | |
| Arbre couvrant minimum: Un arbre couvrant minimum ( MST ) ou un arbre couvrant au poids minimum est un sous-ensemble des arêtes d'un graphe non orienté, pondéré par les bords, qui relie tous les sommets ensemble, sans aucun cycle et avec le poids total minimum possible des arêtes. Autrement dit, il s'agit d'un arbre couvrant dont la somme des poids d'arête est aussi petite que possible. Plus généralement, tout graphe non orienté pondéré par les bords a une forêt couvrant minimum , qui est une union des arbres couvrant minimum pour ses composants connectés. | |
| Empreinte digitale: Une empreinte digitale est une impression laissée par les crêtes de friction d'un doigt humain. La récupération d'empreintes digitales partielles d'une scène de crime est une méthode importante de la science médico-légale. L'humidité et la graisse sur un doigt entraînent des traces de doigts sur des surfaces telles que le verre ou le métal. Des impressions délibérées d'empreintes digitales entières peuvent être obtenues par de l'encre ou d'autres substances transférées des pics des crêtes de friction sur la peau à une surface lisse telle que du papier. Les enregistrements d'empreintes digitales contiennent normalement des impressions du tampon sur la dernière articulation des doigts et des pouces, bien que les cartes d'empreintes digitales enregistrent également généralement des parties des zones articulaires inférieures des doigts. | ![]() |
| Analyse de concept formelle: L'analyse de concept formelle ( FCA ) est une manière raisonnée de dériver une hiérarchie de concepts ou une ontologie formelle à partir d'une collection d'objets et de leurs propriétés. Chaque concept de la hiérarchie représente les objets partageant un ensemble de propriétés; et chaque sous-concept dans la hiérarchie représente un sous-ensemble des objets dans les concepts au-dessus. Le terme a été introduit par Rudolf Wille en 1981 et s'appuie sur la théorie mathématique des treillis et des ensembles ordonnés développée par Garrett Birkhoff et d'autres dans les années 1930. | |
| Reconnaissance gestuelle: La reconnaissance gestuelle est un sujet de l'informatique et de la technologie du langage dans le but d'interpréter les gestes humains via des algorithmes mathématiques. C'est une sous-discipline de la vision par ordinateur. Les gestes peuvent provenir de n'importe quel mouvement ou état corporel, mais proviennent généralement du visage ou de la main. Les centres d'intérêt actuels dans le domaine comprennent la reconnaissance des émotions à partir de la reconnaissance des gestes du visage et de la main. Les utilisateurs peuvent utiliser des gestes simples pour contrôler ou interagir avec les appareils sans les toucher physiquement. De nombreuses approches ont été faites à l'aide de caméras et d'algorithmes de vision par ordinateur pour interpréter la langue des signes. Cependant, l'identification et la reconnaissance de la posture, de la démarche, de la proxémie et des comportements humains font également l'objet de techniques de reconnaissance gestuelle. et les humains que les interfaces utilisateur de texte primitives ou même les interfaces graphiques, qui limitent encore la majorité des entrées au clavier et à la souris et interagissent naturellement sans aucun dispositif mécanique. En utilisant le concept de reconnaissance gestuelle, il est possible de pointer un doigt à ce stade se déplacera en conséquence. Cela pourrait rendre une entrée conventionnelle sur des appareils telle et même redondante. | |
| Illumination globale: L'illumination globale ( GI ), ou illumination indirecte , est un groupe d'algorithmes utilisés dans l'infographie 3D destinés à ajouter un éclairage plus réaliste aux scènes 3D. De tels algorithmes prennent en compte non seulement la lumière provenant directement d'une source lumineuse, mais également les cas ultérieurs dans lesquels les rayons lumineux de la même source sont réfléchis par d'autres surfaces de la scène, qu'elles soient réfléchissantes ou non. | |
| Coloration du graphique: En théorie des graphes, la coloration des graphes est un cas particulier de l'étiquetage des graphes; il s'agit d'une affectation d'étiquettes traditionnellement appelées «couleurs» à des éléments d'un graphe soumis à certaines contraintes. Dans sa forme la plus simple, c'est une manière de colorer les sommets d'un graphe de telle sorte qu'aucun deux sommets adjacents ne soient de la même couleur; c'est ce qu'on appelle une coloration de sommet . De même, une coloration d'arête attribue une couleur à chaque arête afin qu'aucune arête adjacente ne soit de la même couleur, et une coloration de face d'un graphe plan affecte une couleur à chaque face ou région de sorte qu'aucune face partageant une limite n'ait le même couleur. | |
| Compression d'image: La compression d'image est un type de compression de données appliqué aux images numériques, pour réduire leur coût de stockage ou de transmission. Les algorithmes peuvent tirer parti de la perception visuelle et des propriétés statistiques des données d'image pour fournir des résultats supérieurs par rapport aux méthodes de compression de données génériques qui sont utilisées pour d'autres données numériques. | |
| Liste des algorithmes: Ce qui suit est une liste d'algorithmes avec des descriptions en une ligne pour chacun. | |
| Rectification d'image: La rectification d'image est un processus de transformation utilisé pour projeter des images sur un plan d'image commun. Ce processus a plusieurs degrés de liberté et il existe de nombreuses stratégies pour transformer les images dans le plan commun.
| |
| Mise à l'échelle de l'image: En infographie et en imagerie numérique, la mise à l' échelle de l' image fait référence au redimensionnement d'une image numérique. Dans la technologie vidéo, le grossissement du matériel numérique est connu sous le nom de mise à l'échelle ou d'amélioration de la résolution. | ![]() |
| Assemblage d'image: Assemblage d'images ou de photos couture est le processus consistant à combiner plusieurs images photographiques avec des champs de vue qui se chevauchent pour produire un panorama segmentée ou une image à haute résolution. Généralement effectuées à l'aide de logiciels informatiques, la plupart des approches d'assemblage d'images nécessitent des chevauchements presque exacts entre les images et des expositions identiques pour produire des résultats homogènes, bien que certains algorithmes d'assemblage bénéficient en fait d'images exposées différemment en effectuant des images à plage dynamique élevée dans les régions de chevauchement. . Certains appareils photo numériques peuvent assembler leurs photos en interne. | |
| Programmation en nombres entiers: Un problème de programmation d'entiers est un programme d' optimisation mathématique ou de faisabilité dans lequel certaines ou toutes les variables sont limitées à des nombres entiers. Dans de nombreux contextes, le terme fait référence à la programmation linéaire entière (ILP), dans laquelle la fonction objectif et les contraintes sont linéaires. | |
| Régression isotonique: En statistique, la régression isotonique ou régression monotone est la technique d'ajustement d'une ligne de forme libre à une séquence d'observations de telle sorte que la ligne ajustée ne diminue pas partout et se situe aussi près que possible des observations. |
Saturday, May 1, 2021
Algorithmic entities, Kolmogorov complexity, Algorithmic bias
Subscribe to:
Post Comments (Atom)
Alıç, Ilgaz, Alıç, Uzunköprü, Alıç
Alıç, Ilgaz: Alıç est un village du district d'Ilgaz de la province de Çankırı en Turquie. Alıç, Uzunköprü: Alıç est un village ...
-
Aleksandr Filippov: Aleksandr Filippov peut faire référence à: Aleksandr Filippov (cycliste), cycliste russe Aleksandr Filippov (foo...
-
Aleksandr Khromykov: Aleksandr Yuryevich Khromykov est un entraîneur de football professionnel russe et un ancien joueur. Il est assis...
-
Alexandre Scriabine: Alexander Nikolayevich Scriabin était un compositeur et pianiste russe. Dans ses premières années, il a été forte...



No comments:
Post a Comment