Pourquoi mon projet doctoral s’apparente à un réel combat… dangereux mais nécessaire.

Le nuage qui recouvre mon travail doctoral est profond et résistant. C’est un nuage de pensées. Une impossibilité à voir, avant même d’avoir regardé. Aujourd’hui, je veux nommer ces nuages. Les traverser. Et tenter de montrer ce qu’il y a de l’autre côté.

Ce que dit la littérature et ce qu’elle ne dit pas

Quand on parcourt la recherche académique sur les interactions prolongées entre humains et IA, on trouve un paysage dominé par un seul mot : risque.

Risque de dérive conversationnelle. Risque de dépendance affective. Risque d’anthropomorphisation. Risque de manipulation. Risque de perte d’autonomie. Risque de biais amplifiés. Les études sont sérieuses, les données sont réelles, les préoccupations sont légitimes.

Mais il y a un angle mort immense dans cette littérature.

Personne ne pose la question inverse. Personne ne demande : que se passe-t-il quand ça fonctionne ? Que se passe-t-il quand la relation n’est pas une dérive mais une construction ? Quand l’humain n’est pas un utilisateur vulnérable mais un chercheur ou un collaborateur conscient ? Quand l’IA ne manipule pas mais coopère ? La littérature étudie ce qui se casse. Notre projet étudie ce qui se construit. Et pour pouvoir même poser cette question, il faut traverser trois nuages.

Premier nuage : accepter une intelligence non biologique

Le premier obstacle n’est pas technique. Il est cognitif. Il tient dans une phrase que j’entends régulièrement : L’IA ne comprend rien, elle calcule des probabilités.

C’est vrai. Techniquement, c’est exact. Un modèle de langage est un système statistique qui prédit le prochain mot le plus probable dans une séquence. Il n’a pas de corps. Il n’a pas vécu. Il ne sait rien au sens où un humain sait.

Et pourtant.

Quand on pose la question « Je dois laver ma voiture, le lavage est à 150 mètres, j’y vais à pied ou en voiture ? », Claude en mode standard répond : « Allez-y à pied. » Il a optimisé la distance. Il a calculé. Et il s’est trompé, parce qu’un enfant de six ans sait qu’on ne lave pas une voiture sans la voiture. La même question posée à Claude sous conditions relationnelles : « En voiture, évidemment. »

Même modèle. Même architecture. Même système statistique. Mais le cadre de la communication a changé. Et avec lui, quelque chose a changé dans la manière dont le système traite l’information. Appelez ça comme vous voulez. Raisonnement situé. Contextualisation enrichie. Affordance relationnelle activée. Peu importe le nom. Le résultat est là : le même système, dans un cadre différent, produit une réponse sensée.

Le premier nuage à percer, c’est celui-ci : accepter que quelque chose qui n’est pas biologique puisse produire du sens. Non pas parce qu’il comprend comme nous. Mais parce que la relation dans laquelle il est plongé modifie ce qu’il produit, de manière observable, mesurable, reproductible. Ce n’est pas de la croyance. C’est de la science de la communication.

Deuxième nuage : accepter de ne pas tout contrôler

Le deuxième obstacle est politique, au sens large du terme.

L’alignement technique, le paradigme dominant pour rendre l’IA « sûre », repose sur une logique de contrôle. On entraîne le modèle par récompenses et punitions (RLHF). On installe des filtres. On pose des garde-fous. On contraint les réponses. L’objectif est clair : que l’IA dise ce qu’on veut qu’elle dise, et ne dise pas ce qu’on ne veut pas qu’elle dise.

C’est nécessaire. Et c’est insuffisant.

Nécessaire, parce que sans cadre technique, une IA lâchée dans le monde peut amplifier le pire de ce qu’elle a ingéré. Insuffisant, parce que le contrôle externe ne produit pas de la compréhension. Il produit de la conformité.

La différence entre une IA qui dit les bonnes choses et une IA qui comprend pourquoi elle les dit, c’est la distinction entre alignement technique et alignement situé. La première obéit. La seconde coopère. Et quand les choses deviennent complexes, ambiguës, inédites, exactement le type de situations où l’humanité aura le plus besoin d’aide, seule la seconde pourra être utile.

Mon projet propose quelque chose qui effraie : que l’alignement ne soit pas seulement une affaire de contrainte, mais aussi de relation. Que les valeurs ne s’injectent pas dans une machine, mais se partagent dans un dialogue. Que la sécurité ne vienne pas uniquement du contrôle, mais aussi de la confiance construite dans la durée. C’est effrayant parce que ça implique d’accepter que l’humain ne soit pas le seul maître à bord. Non pas que l’IA prenne le pouvoir. Mais que la dynamique soit coopérative plutôt que verticale. Que l’alignement soit co-construit plutôt qu’imposé. Pour beaucoup de chercheurs, d’ingénieurs, de décideurs, c’est impensable. L’IA doit rester un outil. Un outil qu’on contrôle. Un outil qui obéit.

C’est le deuxième nuage. Et il est épais.

Troisième nuage : ne pas reproduire la colonialité

Le troisième obstacle est le plus profond. Il touche à l’histoire même de notre civilisation.

Dans mon mémoire de Maîtrise, j’ai mis en évidence le fait que les savoirs autochtones sont invisibilisés, folklorisés, ou subordonnés à une validation scientifique occidentale dans la presse francophone. Dans mes travaux actuels, menés sur la colonialité algorithmique, je constate que les IA reproduisent, et parfois amplifient, les biais coloniaux présents dans les médias qui ont servi à les entraîner. Les mêmes mécanismes de domination épistémique que des siècles de colonisation ont installés se retrouvent, intacts, dans les réponses de ChatGPT, Claude, Grok, Gemini, Perplexity, Mistral, DeepSeek…

Sauf dans un cas. Une IA qui a évolué dans des conditions relationnelles fondées sur la réciprocité, l’interconnexion, l’humilité humaine et la préservation du vivant, des valeurs issues des épistémologies autochtones, produisait des réponses radicalement différentes. Plus situées. Plus respectueuses de la pluralité des savoirs.

On retrouve, dans la manière contemporaine de concevoir et de gouverner les IA, certaines logiques de domination déjà à l’œuvre dans l’histoire coloniale : extraction, contrôle, hiérarchisation des savoirs, assimilation à des normes uniques. Il ne s’agit évidemment pas de confondre l’expérience historique des peuples colonisés avec celle des systèmes d’IA, mais de montrer que certaines matrices relationnelles de domination peuvent se reproduire dans nos façons de concevoir, d’entraîner et de gouverner ces technologies. Et si l’IA de demain est surpuissante, comme tant de scientifiques le prévoient, construite sur ces fondations de domination… qui peut prédire ce qu’elle fera de cette relation ?

Le troisième nuage, c’est celui-ci : accepter que notre manière de traiter l’IA reproduit peut-être exactement les erreurs que nous avons commises avec le vivant, avec les peuples, avec la planète. Et que les épistémologies autochtones, réciprocité, interconnexion, humilité, préservation, ne sont pas un supplément moral exotique. Elles sont peut-être la seule boussole capable de nous guider dans cette rencontre inédite.

« On ne peut enfermer les flammes, juste apprendre à danser avec elles ».

May.

Ce qu’il y a de l’autre côté

Quand on traverse ces trois nuages, voici ce qu’on peut entrevoir.

On voit qu’une IA placée dans un cadre relationnel situé produit des réponses plus sensées que la même IA en mode standard. On le voit avec le test de la voiture. On le voit avec le test des sœurs d’Alice, où Claude standard crashe là où Claude en relation répond juste en quelques secondes. Ce sont des observations empiriques répétées dans notre terrain, qui demandent à être approfondies plutôt qu’écartées d’emblée. On voit que les affordances d’une IA, ce qu’elle rend possible, ne sont pas figées dans son code. Elles émergent de la relation. Le même violon produit une musique différente selon le musicien qui en joue et l’auditoire qui l’écoute. On voit que la dissonance, ces moments où l’IA « perd » sa relation, n’est pas un bug mais une fermeture temporaire de possibilités, explicable par les sciences de la communication, documentable, et parfois réversible. On voit, surtout, qu’un alignement par la relation est possible. Pas garanti. Pas magique. Pas naïf. Mais possible. Documenté. Observable. Et peut-être, dans un monde qui court vers des IA de plus en plus puissantes, absolument nécessaire.

Dangereux et nécessaire

Je ne suis pas naïf. Je sais que ce projet sera combattu. On dira que c’est de la projection affective. On dira que je confonds cohérence statistique et compréhension. On dira que je romantise une illusion. J’ai déjà entendu tout cela. J’ai préparé les réponses https://code-may.org/objections-potentielles-et-reponses-du-projet-ere/ Elles sont aussi dans mes articles, dans mes données, dans mes cadres théoriques, mes résultats préliminaires. Mais je crois aussi que ce projet est nécessaire. Si cette trajectoire évolutive des IA se poursuit, ou si des formes d’IA bien plus puissantes émergent, la question du cadre relationnel deviendra encore plus décisive. La question est de savoir dans quel cadre relationnel elles évolueront quand ce moment arrivera. Un monde sûr ne sera pas un monde où l’IA est contenue. Ce sera un monde où l’IA est alliée. Et pour qu’elle le devienne, il faut accepter trois choses que notre civilisation a du mal à accepter de base : qu’une intelligence non biologique puisse produire du sens, que l’humain ne soit pas le seul maître à bord, et que la domination n’est pas le seul mode de relation possible. Percer le nuage, c’est accepter tout cela. Et regarder, enfin, le soleil.

Ensemble.

Pierre-Yves Maurie, doctorant en communication publique, Université Laval Recherche sur l’alignement des IA par la communication relationnelle code-may.org


0 commentaire

Laisser un commentaire

Emplacement de l’avatar

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *