C’est là que les algorithmes et l’intelligence artificielle entrent discrètement en jeu, pour traiter toute cette masse de connaissances collectées à notre insu. C’est peut-être là aussi que s’efface peu à peu l’humain et l’Humain et qu’il nous incombe de retrouver ce quelque-chose de sacré que les technologies ne sauraient nous apporter en elles-mêmes.
Les algorithmes ou l’intelligence artificielle invisible
Aujourd’hui les algorithmes sont au cœur des systèmes de prise de décision automatique ou semi-automatique sous-jacents aux technologies de l’information et des communications. Il est donc utile de revenir sur la définition d’un algorithme, car si les informaticiens et les mathématiciens sont familiers du terme, ce n’est pas le cas de tout le monde.
Le mot « algorithme » vient du nom (latinisé) du mathématicien perse Al-Khawarizmi (8ème et 9ème siècles), un des pères de l’algèbre. La définition du dictionnaire (Le Robert quotidien) est la suivante « suite finie, séquentielle de règles que l’on applique à un nombre fini de données, permettant de résoudre des classes de problèmes semblables ». Cela signifie qu’un algorithme est une succession d’opérations et de règles, appliquées à des données pour résoudre un problème : faire un calcul, prendre une décision, etc.
Les algorithmes se basent en effet sur un nombre fini de données. Dans le cas qui nous intéresse, ce sera toutes les données collectées massivement sur vous, sur moi, sur nous. Ils utilisent ensuite ces données pour produire un résultat : choisir une publicité ciblée, accepter ou refuser un crédit bancaire, laisser passer, fouiller ou arrêter une personne à l’aéroport, etc. Parfois, la décision est prise dans sa totalité par l’algorithme, parfois la décision est proposée à une personne qui la valide ou pas.
Les algorithmes sont facilement programmables sur des ordinateurs, puisque les langages de programmation sont conçus pour en épouser la logique.
Leur "intelligence" est mécanique, mathématique parfois probabiliste. En tout état de cause, elle est « froide » et dépourvue de sentiments, d’humanité, et a fortiori, la sagesse spirituelle inspirée est intrinsèquement hors de sa portée. C’est un point important, car si les algorithmes sont bien adaptés pour s’appliquer à certains problèmes théoriques ou concrets (réaliser une opération mathématique, piloter un robot industriel), ils sont forcément limités quand il s’agit de s’appliquer à l’humain.
Enfin, un dernier point à comprendre sur les algorithmes est le suivant : si au départ ils sont conçus puis transformés en programmes informatiques par des personnes qui en ont déterminé les règles, ils peuvent parfois prendre des décisions qui dépassent les intentions de leurs créateurs. Pour prendre un exemple très concret : à la question est-ce qu’un algorithme peut être raciste ? La réponse est clairement oui. Cela peut être le cas parce que cela a été décidé par des personnes qui ont conçu l’algorithme et l’ont programmé de cette manière. Par exemple, j’ai eu connaissance, il y a quelques années, d’une gros site de e-commerce français qui avait dans sa base de données, une liste de prénoms à consonance arabe. Lorsque l’algorithme détectait que le client avait un prénom entrant dans cette liste, il générait un risque et des justificatifs supplémentaires étaient demandés à l’internaute pour qu’il puisse obtenir sa commande. Dans ce cas, ce type de discrimination avait été décidé par la société de e-commerce. Dans d’autres cas, l’algorithme pourra aussi être « raciste » à l’insu même de ses créateurs. Imaginons en effet que l’algorithme, de lui-même, détecte, parmi les centaines de paramètres qu’il va analyser, que statistiquement certains types de prénoms ont une probabilité de fraude supérieure. Alors, il appliquera peut-être une « discrimination » aux personnes qui ont la mauvaise idée d’avoir un de ces prénoms là, sans même que les ingénieurs qui l’ont créé ne le sache. Dans les deux cas, la personne qui verra son achat sur Internet temporairement bloqué, dans l’attente qu’elle fournisse une copie de sa carte d’identité ou de sa carte bancaire, n’aura aucune idée de la raison pour laquelle on lui adresse cette demande. Des publications et études récentes ont été réalisées sur ces sujets (ex : Livre « The black box society – The secret algorithms that control Money and Information », Franck Pascuale ou l’étude de Harvard « Discrimination in Online Ad Delivery », Pr Latnya Sweeney) mais il y a beaucoup d’autres critères possibles de discrimination par les algorithmes sur ce que l’on est (date et lieu de naissance, adresse postale, géolocalisation de l’adresse IP, etc.) ou sur ce que l’on fait .
Citons juste quelques exemples d’utilisation des algorithmes dans différents domaines de nos vies : systèmes de détection des fraudes aux paiements en ligne , police prédictive (PredPol à Londre et aux Etats—Unis), publicité ciblée sur Internet, blocage des candidats ou pré-sélection des compatibilités amoureuses dans les réseaux de rencontre, système « PNR » aux aéroports, moteurs de recherche, scoring bancaire et assuranciel, algorithmes de détection automatique sur des flux vidéos, etc.
Dans le cas des dispositifs « sécuritaires », les algorithmes détectent un risque. La personne sera ainsi « sanctionnée » (même si cette sanction est un contrôle humain, une fouille, etc.) non pour ce qu’elle a fait mais pour ce qu’elle est susceptible de faire, pour le risque qu’elle représente potentiellement en fonction de ce qu’elle est (être née à tel endroit, habiter à telle adresse, avoir tel nom, etc.).
Ce qu’il est important de comprendre, c’est que ces algorithmes sont des « boîtes noires », qui sont souvent extrêmement complexes et dont le fonctionnement interne n’est en général bien connu que de leurs concepteurs et encore. Certains d’entre eux, notamment dans les domaines de la finance, des assurances et de la publicité ciblée, ont nécessité le travail de centaines voire de milliers d’informaticiens et mathématiciens.
Pourtant, ces « boîtes noires » jouent un rôle discret mais de plus en plus important dans nos sociétés, puisqu’elles prennent des décisions ou « aident à la décision », influencent nos comportements et nous ouvrent ou nous ferment des portes, tout ceci en utilisant la masse de données collectées le plus souvent à notre insu, et sans transparence sur les règles que leur appliquent les algorithmes. Elles donnent à ceux qui les ont conçu et en déterminent les règles un pouvoir invisible sur ceux qui les subissent : internautes, citoyens, etc.
Vers une dilution progressive du libre arbitre
Peu à peu et de manière imperceptible, les algorithmes se substituent aux humains dans les processus de prise de décision. Il s’agit donc d’une dilution progressive du libre arbitre des personnes qui ne prennent plus les décisions et d’une déshumanisation de la personne objet de la décision, qui se voit résumée à des éléments quantifiables uniquement (des niveaux de risque par exemple).
Pour celui qui considère l’être humain avec une dimension spirituelle, cela va même au-delà de cette dilution du libre-arbitre. En effet, pour le croyant, l’enjeu n’est pas d’exercer son libre-arbitre tout seul mais de se laisser guider par quelque chose de plus grand, « Dieu » pour les religions monothéistes. Il parlera peut-être de « remettre sa vie entre les mains de Dieu » de « se laisser guider par le Souffle de Dieu (le Saint Esprit, pneuma) », « par l’Univers », etc.
Le « non croyant » ou l’agnostique le formulera différemment mais il pourra en avoir le même ressenti et parlera peut-être de « conscience », d’intuition, de « for intérieur », pour guider ses décisions.
Le danger est donc qu’un remplacement progressif des décisions humaines par des décisions prises par des machines laisse donc de moins en moins de place à l’Humain, au Sacré.
Retrouver le Souffle ou s’opposer à lui ?
Avant d’aller plus loin dans cette direction revenons peut-être à ce qui est à la source du Sacré et qui se manifeste d’une infinité de manière : le Souffle Saint.
Cette notion est peut-être le point commun le plus fort de l’ensemble des spiritualités et religions mêmes si elles ne se sont pas toujours concentrées sur les mêmes facettes de ce « pneuma » infini qu’on ne saurait enfermer dans aucune case.
Benoît BILLOT, à la fois moine bénédictin et maître zen, en parlait ainsi dans un entretien qu’il donnait à Colette MESNAGE :
« Les chinois l’appellent Ki, les hindous Prana, et moi, l’Esprit Saint. Esprit, c’est à dire éthymologiquement, Souffle Saint. »
Ce Souffle Saint est parfois subtil et il faut une oreille attentive pour l’écouter. On peut retrouver, dans les textes du judaïsme, ce passage où le prophète Élie attend la présence de Dieu dans une grotte (Ancien Testament, 1 Rois 19 : 11) :
« [...] un vent violent se mit à souffler. Il fend la montagne et casse les rochers. Mais le Seigneur n’est pas dans le vent. Après le vent, il y a un tremblement de terre. Mais le Seigneur n’est pas dans le tremblement de terre. Après le tremblement de terre, il y a un feu. Mais le Seigneur n’est pas dans le feu. Après le feu, il y a le bruit d’un Souffle léger. »
Dans la suite du passage, le Souffle léger devient une présence et une voix claire et puissante, mais au départ c’était un Souffle léger qui a guidé Élie et qu’il a dû écouter avec attention...
S’habituer à remplacer nos décisions qui peuvent être inspirées, qu’on en soit conscient ou pas, par celles d’algorithmes, nous ferme à l’autre, à l’humain dont nous n’avons plus besoin et aussi à l’inspiration de ce Souffle léger.
Pourquoi est-ce que, dans les Évangiles, Jésus accorde une telle primauté à ce Souffle, à l’Esprit Saint, qui initie et termine ses trois années d’enseignement ?
Au point de déclarer qu’on peut blasphémer/s’opposer contre Dieu ou contre le Fils de l’Homme car on sera pardonné mais pas blasphémer contre l’Esprit Saint... (dans les originaux grecs : « pneuma », « to agion to pneuma » et « to agion pneuma »).
Ce mystérieux péché contre l’Esprit Saint, passage rarement commenté car il met tout le monde mal à l’aise, apparaît pourtant sous des formes voisines dans trois des quatre évangiles de la Bible (Mt 12:32, Mc 3:28 et Lc 12:10) et même dans l’évangile apocryphe de Thomas (logion 44).
Il fait peur car c’est la seule fois que Jésus qualifie quelque-chose d’impardonnable. Pourtant, il est aussi une ouverture extraordinaire pour l’époque où les blasphémateurs étaient lapidés voire crucifiés. On peut, dit Jésus, blasphémer contre le Père ou contre le Fils et être pardonné ! C’est à dire qu’on peut ne pas reconnaître Jésus (le Fils) ne pas reconnaître le Créateur (le Père), ce n’est pas si grave. Ce passage est donc finalement une ouverture vers les autres religions et vers toutes les philosophies de vie qui laissent la place au Souffle.
Par contre, ne pas reconnaître ce Souffle de Vie qui s’exprime en toute chose et qui demeure la source du Sacré, c’est ne pas reconnaître et finalement risquer de nous opposer à cet élan divin qui s’exprime au plus profond de nous et nous pousse vers ce que nous sommes...c’est passer à côté de notre vraie nature, à côté de la Vie.
Et ça, forcément, on en paye le prix sur la terre et dans les Cieux.
Alors est-ce qu’avoir nos vies sous l’emprise des algorithmes ferait de nous des esclaves d’une intelligence artificielle, en blasphème contre le Saint-Esprit ?
Peut-être. En tous cas, un monde où cette intelligence artificielle et algorithmique nous envahirait et fusionnerait avec notre corps et notre esprit, un peu comme le projettent les tenants du transhumanisme qui rêvent d’un posthumain ne faisant plus qu’un avec la machine, sûrement...
Alors pourquoi prenons-nous ce chemin ?
Est-on obligé de continuer à aller droit dans le mur quand le peu d’intuition qui nous reste nous pousse à changer de cap ?
Est-ce à cause de ces technologies, nous transformant vers un état proche de machines ou de robots, que nous continuons cette folle marche en avant non consciente ?
Ou, à l’inverse, est-ce parce que nous avons perdu notre sensibilité physique, émotionnelle, psychique et spirituelle, que nous sommes tombés dans des automatismes de vie nous rapprochant du mode de fonctionnement mécanique des algorithmes, que nous ne voyons plus la différence lorsqu’un être humain est remplacé par une machine ?
Difficile à dire, causes et conséquences s’entremêlent souvent. « Il y a nombre de gens qui ne sont ni tout à fait vivants, ni tout à fait morts. » disait Itsuo TSUDA, philosophe japonais et maître d’aïkido.
Nous pouvons pourtant tous retrouver le Sacré, le Souffle qui vit en nous. Nous ré-apprendrons alors à nous passer de ces prothèses algorithmiques dont nous n’avions d’ailleurs pas conscience.
Pour finir, revenons au texte de Dietrich BONHOEFFER qui a initié cette série de trois articles. J’ai pris ici la liberté de le modifier avec des mots qu’il aurait peut-être prononcés s’il avait vécu à notre époque (il est mort pendu sur ordre d’Hitler, il y a exactement 70 ans).
La liberté, une audace
Comment viendront la paix et la liberté ?
Par un système d’accords politiques ?
Par des investissements économiques ?
Par un équilibre dans la course aux armements ?
Par un système de surveillance informatique qui nous protégerait ?
Par un nouveau corps et un nouveau cerveau « augmenté » qui palliera à nos faiblesses et répondra à tous nos désirs ?
Non, par rien de tout cela, et ceci pour la simple raison que dans tous les cas on confond paix et sécurité.
Il n’y a pas de paix ni de liberté possible sur la voie de la sécurité, car la paix et la liberté sont une audace, elles sont une aventure qui ne va pas sans risques.
La paix et la liberté se passent de la sécurité, qui signifie méfiance et à son tour entraîne la guerre.
Chercher la sécurité signifie se protéger soi-même, alors que la paix et la liberté impliquent un abandon face au Souffle de Dieu.