Le problème Logique combinatoire a retenu l’attention de nombreuses personnes aujourd’hui. Grâce à sa pertinence pour de multiples aspects de la vie moderne, Logique combinatoire s'est avéré être un sujet d'un grand intérêt pour un large éventail de personnes. Qu’il s’agisse de son impact sur la société, de son influence sur la culture populaire ou de son rôle en politique et en économie, Logique combinatoire s’est avéré être un sujet digne d’analyse et de réflexion. Dans cet article, nous explorerons les différentes facettes de Logique combinatoire, dans le but de fournir une vision plus complète et approfondie de son importance dans le monde d'aujourd'hui.
En logique mathématique, la logique combinatoire est une théorie logique[1] introduite par Moses Schönfinkel[2] en 1920 lors d'une conférence et développée dès 1929 par Haskell Brooks Curry[3] pour supprimer le besoin de variables en mathématiques, pour formaliser rigoureusement la notion de fonction et pour minimiser le nombre d'opérateurs nécessaires pour définir le calcul des prédicats à la suite de Henry M. Sheffer. Plus récemment, elle a été utilisée en informatique comme modèle théorique de calcul et comme base pour la conception de langages de programmation fonctionnels.
Le concept de base de la logique combinatoire est celui de combinateur qui est une fonction d'ordre supérieur ; elle utilise uniquement l'application de fonctions et éventuellement d'autres combinateurs pour définir de nouvelles fonctions d'ordre supérieur. Chaque combinateur simplement typable est une démonstration à la Hilbert en logique intuitionniste et vice-versa [4]. On appelle ceci la correspondance de Curry-Howard
La logique combinatoire est fondée sur deux « opérations » de base (on dit aussi deux « combinateurs ») S et K que nous définirons plus loin ; plus précisément nous en définirons le comportement ou l'« intention », car la logique combinatoire est une approche de la logique qui montre plutôt comment marchent les choses que comment les objets peuvent être décrits, on dit alors que c'est une approche intentionnelle de la logique. Si l'on veut définir la fonction[5] que nous appellerons C et qui prend trois paramètres et rend comme résultat le premier appliqué au troisième, le tout étant appliqué au second, on pourra l'écrire :
qui, comme on le voit, ne comporte pas de variable. On pourra regretter que l'avantage de ne pas utiliser de variables se paie par la longueur des expressions et une certaine illisibilité. Aujourd'hui la logique combinatoire est surtout utilisée par les logiciens pour répondre positivement à la question « Est-il possible de se passer de variables ? » et par les informaticiens pour compiler les langages fonctionnels[6].
La logique combinatoire est un système de réécriture du premier ordre. C'est-à-dire qu'à la différence du lambda-calcul, il ne comporte pas de variables liées, ce qui permet une théorie beaucoup plus simple. Il n'a que trois opérateurs : un opérateur binaire et deux constantes.
Le combinateur identité, noté I, est défini par[8]
Un autre combinateur, noté K, fabrique des fonctions constantes : (K x) est la fonction qui, pour tout paramètre, retourne x, autrement dit
pour tous termes x et y. Comme en lambda-calcul, on associe les applications de gauche à droite, ce qui permet de supprimer des parenthèses, ainsi on écrit
Un autre combinateur, noté S, distribue le paramètre (ici z) aux applications composantes :
S applique le résultat de l'application de x à z au résultat de l'application de y à z.
I peut être construit à partir de S et K, en effet :
On décrète donc que I est un combinateur dérivé et que I = S K K et on décide de décrire tous les combinateurs à l'aide de S et K, ce qui est raisonnable car on peut montrer que cela suffit pour décrire « toutes » les fonctions d'une certaine forme[9],[10].
En fait, les transformations fonctionnent comme des réductions et pour cela on les note →. On obtient donc les deux règles de réduction de base de la logique combinatoire.
On peut associer un type à chacun des combinateurs. Le type d'un combinateur dit comment il prend en compte le type de ses paramètres pour produire un objet d'un certain type. Ainsi le combinateur I change son paramètre en lui-même ; si on attribue le type α à ce paramètre x, alors on peut dire que Ix a le type α et que I a le type α → α. Ici la flèche → désigne le constructeur de type fonctionnel, en gros α → α est le type de la classe des fonctions de α vers α, → a construit un nouveau type α → α à partir du type α.
K prend un paramètre, disons de type α et rend une fonction d'un paramètre de type β qui rend le premier paramètre, le type de cette dernière fonction est donc β → α et le type de K est ainsi α → (β → α), que l'on écrit α → β → α. S prend trois paramètres x, y et z ; donnons le type α au troisième paramètre z et le type γ au résultat final, le deuxième paramètre y prend un paramètre de type α et rend un paramètre de type disons β (son type est donc α → β), le premier paramètre x prend un paramètre de type α et rend une fonction de type β → γ, son type est donc α → (β → γ), que l'on écrit α → β → γ. Résumons-nous, on a z:α , y: β → α et x: α → β → γ et S x y z: γ, on en conclut que S a le type (α → β → γ) → (α → β) → α → γ.
Le résultat M N qui consiste à appliquer M à N est typable si M a un type fonctionnel, disons α → β et si N a pour type α. M N a alors pour type β.
Le type de B est (α → β) → (γ → α) → γ → β. On le voit soit en remarquant que B x y z →* x (y z), soit en appliquant la règle de composition à S (K S) K.
Le type de C est (α → β → γ) → β → α → γ, pour les mêmes raisons que celles invoquées pour B.
W en revanche n'est pas typable. On peut voir cela en se rappelant que S : (α → β → γ) → (α → β) → α → γ et I : (α → α). Si on applique S à I on doit avoir α = β → γ, puis si on applique S I à I on doit avoir α = β, donc β = β → γ. Cette équation n'a pas de solution. Donc S I I = W n'est pas typable.
En résumé:
Si M est un combinateur typé, alors toute chaine de réduction qui commence en M est finie. On appelle cette propriété la forte normalisation.
On constate que le modus ponens
ressemble à la règle de conservation des types quand on applique un combinateur de type α → β à un combinateur de type α. Examinons aussi les deux premiers axiomes de la présentation à la Hilbert de la logique propositionnelle à savoir:
Rappelons qu'ils permettent de formaliser le calcul propositionnel intuitionniste. On remarque que le premier axiome est identique au type de K et que le deuxième axiome est identique au type de S si l'on remplace la proposition P par α, la proposition Q par β et la proposition R par γ. Cette correspondance entre proposition et type et entre combinateur et démonstration s'appelle la correspondance de Curry-Howard. Elle met en parallèle le système de déduction à la Hilbert pour la logique propositionnelle intuitionniste et la logique combinatoire qui ont été, notons-le, découverts indépendamment.
La formule
signifie (dans le langage de Rocq, par exemple) que B est une preuve de la formule propositionnelle (α → β) → (γ → α) → γ → β.
fournit alors une preuve effective de la formule dans la théorie de Hilbert qui n'emploie que le modus ponens et les axiomes K et S.
Cela demande un petit travail de réécriture: Tout d'abord, on rétablit les parenthèses
ensuite, on introduit l'opérateur ⇒
enfin, on emploie la notation postfixée :
Alors cette formule donne les étapes de la démonstration dans le sens de la déduction[11]. ⇒ dénote le recours au modus ponens ; K et S, l'utilisation des axiomes K et S. Plus, précisément Q ≡ I P ⇒ signifie que si I est la démonstration de P → Q, et P la démonstration de P, alors I P ⇒ est bien celle de Q. Malheureusement cette formule ne fournit pas les opérations de substitutions qui doivent être utilisées dans l'introduction des axiomes.
La notation préfixée,
représente le sens de la démonstration dans le langage de Rocq[12]. Ici, les informations manquantes sont les formules des P employés dans les modus ponens.
Toute expression de la logique combinatoire admet une expression du λ-calcul équivalente, et toute expression du λ-calcul admet une expression de la logique combinatoire équivalente.
Notons la traduction des combinateurs vers le λ-calcul, elle est définie par :
Cette traduction est compatible avec la -équivalence, c'est-à-dire que si , alors .
Avant de définir la représentation du λ-calcul en logique combinatoire nous avons besoin de définir une abstraction dans la logique combinatoire [13]. Si est un terme, on définit qui va jouer le rôle de .
On définit l'interprétation des termes du λ-calcul en termes de la logique combinatoire:
Cette interprétation n'est pas compatible avec la -équivalence : il existe des lambda-termes et tels que et , par exemple et :
Mais , et .
Le combinateur de point fixe de Turing, noté a pour expression en λ-calcul . On peut alors calculer :
puis
On définit alors deux combinateurs A et Θ
A:=S (K (S I)) (S I I)
Θ: =A A
Θ est un combinateur de point fixe.
On observe que, qu'il s'agisse du λ-terme ou de sa traduction en tant que combinateur, on a .
Une forme normale est un combinateur dans lequel aucune règle de réduction n'est applicable. Déterminer si un combinateur peut se réduire en combinateur en forme normale est indécidable. De même, déterminer si deux combinateurs distincts sont égaux est indécidable[14]. Ces deux résultats sont à rapprocher de l'indécidabilité de l'équivalence de deux termes dans le lamda-calcul, ou de l'indécidabilité de l'existence d'une forme normale pour un terme donné[15].