Bazarder Grok, X et Musk avec

Le robot conversationnel intégré au joujou du néonazi le plus riche du monde écrit des textes négationnistes et ça mérite quelques clarifications.image titre

Préambule : je suis résolument opposé à l’industrie de l’IA générative, qui vole, exploite, détruit, ment, est insoutenable que ce soit écologiquement ou économiquement. Je veux évoquer dans ce billet un aspect un peu plus spécifique, sur le principe même des chatbots dopés aux LLM.

Cette semaine, plusieurs posts mettant en cause la réalité des meurtres de masse commis par les nazis dans les camps d’extermination, et plus particulièrement de la Shoah, ont suscité une indignation parfaitement justifiée. Inutile de détailler les propos : le négationnisme est une abjection et quiconque verse là-dedans se disqualifie. Rappel au passage que personne ne fait ça par erreur ; la réponse à l’antisémitisme est un combat politique, pas du fact-checking — c’est valable pour tous les sujets dont se servent les fascistes, cf. les travaux de Marie Peltier et d’autres.

Antisémitisme « artificiel »

La particularité de ces posts ? Ils ont été faits par Grok, le robot conversationnel intégré à X (que certains persistent à appeler Twitter pour éviter de regarder la réalité en face). Plus précisément, des utilisateurs antisémites ont posé des questions chargées idéologiquement et la machine a fait son boulot en répondant.

C’est à cela que sert un LLM : générer du texte statistiquement cohérent avec ce qu’on lui a donné en entrée. Dans le cas d’un chatbot comme Grok ou ChatGPT, ça se passe dans le cadre d’une conversation simulée ; « ce qu’on lui a donné en entrée » correspond à trois choses : la question posée (le prompt), du contexte supplémentaire (le reste de la conversation par exemple), et les instructions internes (system prompt) qui régissent son comportement, rédigées par l’entreprise qui gère le système.

Ces instructions internes ne sont en général pas publiques, mais fuitent assez régulièrement quand des gens parviennent à manipuler les chatbots. Enfin, c’est un peu compliqué de s’assurer que c’est vraiment le system prompt, et comme les entreprises aux commandes peuvent à tout moment changer ces instructions, tout ça n’a guère de sens — à part qu’on peut constater que les personnes qui les rédigent n’ont à peu près aucune idée de ce qu’elles font et tâtonnent en permanence pour essayer de faire des trucs qui fonctionnent à peu près.

C’est en tout cas ce jeu d’instructions qui permet (plus ou moins efficacement) d’empêcher la génération de certains types de contenus, par exemple illégaux ou à caractère sexuel, ou de ne pas encourager l’utilisateur·ice à se faire du mal (ça ne fonctionne pas très bien). Les boîtes qui contrôlent les robots conversationnels définissent la façon dont ils se comportent, ce qui pose déjà pas mal de questions en général, en les laissant décider de ce qui est acceptable (ce qui est déjà le cas avec les règles de publication sur les réseaux sociaux comme Instagram, où un téton est outrageux ou non selon qu’il est considéré comme masculin ou féminin). Ces règles ne sont en outre jamais infaillibles, et sont parfois même carrément faites pour favoriser certains types de contenus… ce qui nous ramène à Grok.

Au service secret de sa Muskité

Grok, c’est xAI qui décide de son jeu d’instructions. xAI, c’est-à-dire Elon Musk, le néonazi le plus riche du monde, enfin l’homme le plus riche du monde tout court. Elon Musk, au sujet duquel dire qu’il a tendance à utiliser le pouvoir que lui donne sa montagne de thunes pour faire avancer ses idées est un euphémisme qui ferait frémir l’IGPN. X et Grok, indissociables, sont à son service ; les travaux de David Chavalarias à ce sujet sont particulièrement éclairants. C’est là qu’il pousse toute la journée ses idées politiques (et à essayer de se faire passer pour un être humain exceptionnel, mais c’est moins le sujet).

Musk est un authentique fasciste, qui pèse de tout son poids sur la politique du monde entier en soutenant les partis et mobilisations d’extrême droite y compris en France, en Allemagne, au Royaume-Uni, et cætera. Grok a été créé dans ce but, explicitement « anti-woke » (c’est-à-dire bien réactionnaire, a minima), il n’est donc pas étonnant que des prompts chargés en racisme ou en antisémitisme produisent des résultats du même tonneau.

Fly, you fools

X et Grok sont au service des idées d’Elon Musk, notamment pour pousser les thèses néonazies dans le monde entier, absolument aucun effort n’est fait pour le cacher. Quitter définitivement ce réseau devrait être une évidence, en particulier pour les institutions, les organes de presse et les responsables politiques ; mais il semblerait que l’appel du clic soit pour lors plus attrayant que la morale la plus élémentaire.

C’est bien mignon de dénoncer les algos biaisés ou de porter plainte ponctuellement, mais il s’agirait d’arrêter d’alimenter la machine.