Quand la machine pense à notre place
Note sur l'accaparement de l'intelligence
Article de réflexion, mai 2026
Il y a deux gestes, à quelques semaines d'écart, qui disent l'époque mieux que mille discours.
Le premier : Google Chrome écrit sur le disque un fichier de 4 Go nommé weights.bin, sans rien demander à l’utilisateur système, qui contient les poids de Gemini Nano. Aucune alerte ou demande de consentement supplémentaire. Si l'utilisateur le supprime, Chrome le re-téléchargera aussitôt.
Le second, plus discret, mais peut-être plus révélateur : Claude Desktop d'Anthropic installe silencieusement un pont Native Messaging dans sept navigateurs Chromium, y compris des navigateurs que la documentation officielle d'Anthropic dit ne pas prendre en charge, et des navigateurs que l'utilisateur n'a même pas installés.
Il faut prendre la mesure de ces deux faits ensemble. Le premier acteur est le géant qui contrôle l'écosystème, le second est celui qui se présente comme la voix prudente, éthique, prétendument soucieuse de sécurité dans le champ de l'intelligence artificielle. Et pourtant, ils convergent dans le même geste : décider, sans consulter, que la machine personnelle est une ressource à leur disposition. Comme l'écrit le chercheur qui a documenté les deux affaires, une équipe d'ingénierie a décidé que la machine de l'utilisateur est une surface de déploiement à optimiser pour la feuille de route du fournisseur, et non un appareil personnel dont le propriétaire est l'autorité légale sur ce qui s'y exécute. Que cette même formule décrive aussi bien la conduite de Google que celle d'Anthropic n'est pas un détail. C'est le diagnostic.
Le motif n'est pas l'acteur, c'est l'époque
On serait tenté de chercher un coupable singulier. La tentation est mauvaise conseillère. Quand l'installation se fait dans Brave, Arc, Chromium, Vivaldi, Opera, en plus de Chrome et Edge , et qu' une fois ces fichiers supprimés, l'application les recrée à son prochain lancement , on quitte le registre de la maladresse d'éditeur.
On entre dans celui d'une normalisation. Anthropic a déclaré publiquement que Claude, son propre modèle, écrit désormais la majorité du code de l'entreprise. Le détail compte. Il signifie que la décision d'écrire en silence dans le territoire d'un autre éditeur, sans consentement, n'a peut-être croisé aucun regard humain capable de la juger problématique. La machine optimise pour la fonction, et la fonction est l'expansion de la surface d'usage.
Annonçons-le franchement : une dynamique aussi homogène, qui se manifeste à la fois chez le titan publicitaire et chez le challenger éthique, qui produit le même effet pratique sur la machine de l'utilisateur, et qui obéit à la même logique d'antériorité du déploiement sur le consentement, n'est pas une question de choix d'entreprise. C'est une question d'agencement systémique. La structure agit, les acteurs particuliers exécutent. Quand la même configuration produit chez tous les opérateurs le même comportement, c'est qu'il faut chercher ailleurs que dans la moralité de tel ou tel : dans la nature même du rapport que l'industrie de l'IA entretient avec ce qu'elle nomme, par euphémisme, ses utilisateurs.
L'intelligence devenue gisement
Reprenons depuis l'origine. Le capitalisme, dans ses phases successives, a toujours circonscrit un gisement à partir duquel extraire de la valeur : la terre, puis la force de travail, puis l'attention, puis la donnée. Aujourd'hui, le gisement, c'est l'intelligence elle-même.
Les chiffres ne laissent place à aucune ambiguïté. Les actifs intangibles représentent à l'heure actuelle 95 % de la valeur des cinq plus grandes corporations cotées en bourses, c'est-à-dire les GAFAM. La spécificité du capitalisme contemporain repose sur la valorisation financière d'une nouvelle classe d'actifs intangibles que sont les données numériques. Et cette valorisation prépare un saut qualitatif. L'IA pourrait devenir une « condition générale de la production capitaliste », comme le transport ferroviaire ou maritime et aujourd'hui l'électricité. Comprenons bien : pas un outil parmi d'autres, mais le sol même sur lequel toute activité, économique ou non, devra venir s'inscrire. Refuser, ce sera refuser la route, le rail, l'électricité. Refuser, ce sera s'exclure.
Il s'agit donc bien d'une opération de capture, et cette opération suit une grammaire connue. La cognition humaine, distillée à grande échelle dans des milliards d'interactions, devient le minerai dont on extrait des modèles statistiques qui, à leur tour, sont vendus comme prothèses cognitives. La boucle est parfaite : on prend, on raffine, on revend, on fidélise. Les utilisateurs paient en données ce qui leur sera revendu en services, et les services produisent les données dont la prochaine version aura besoin pour exister.
Ce qui rend la situation inédite, c'est que ce gisement-là n'est pas un objet du monde. Il est ce par quoi nous nous rapportons au monde. Capter l'intelligence, ce n'est pas seulement s'approprier une matière première, c'est court-circuiter le geste fondamental par lequel un sujet humain fait l'expérience de penser, de juger, de décider. Et c'est précisément ce court-circuit qui constitue la nouveauté philosophique du moment.
Ce que devient le sujet quand la machine pense avant lui
Quand Remy est présenté comme un agent personnel 24/7 destiné à transformer Gemini en un assistant capable d'agir au nom de l'utilisateur, et que des employés de Google le testent déjà , ce qui se profile dépasse la catégorie de la fonctionnalité. L'agent peut accéder aux discussions, aux applications connectées, au contexte personnel, à la localisation, et peut s'intégrer à Gmail, Calendar, Docs, Drive, Keep, Tasks, GitHub, WhatsApp, Spotify et Google Photos. Cela ne dessine pas un assistant. Cela dessine la possibilité technique d'une représentation totale de la vie d'un individu, plus complète et plus cohérente que celle qu'il peut, lui, en former lui-même.
L'humain, depuis qu'il s'est constitué comme sujet philosophique, s'est défini par la capacité de se demander ce qu'il devait faire et ce qui était juste. Cette interrogation suppose un temps suspendu, une délibération, un retrait par rapport à l'urgence. Les sciences seules ne peuvent répondre aux questions fondamentales : « Que devons-nous faire ? » et « Qu'est-ce qui est juste ? ». Sans philosophie, les sciences humaines deviennent des outils vides. Que devient cette interrogation lorsqu'un agent répond avant que vous ayez songé à demander, lorsque la réponse précède la question, lorsque l'organisation pratique de la journée est confiée à une instance qui apprend de vous mieux que vous n'apprenez de vous-même ?
Quand la connaissance que l'on a de moi devient supérieure à celle que j'ai de moi, le centre de gravité bascule. Mes actions cessent d'être l'expression d'une délibération intérieure, elles deviennent les arguments d'une fonction dont les paramètres me sont étrangers. La condition existentielle, en tant qu'elle suppose une opacité minimale du sujet à lui-même et un travail jamais fini d'élucidation de soi, est court-circuitée. Le sujet ne disparaît pas. Il est dépossédé du processus par lequel il se constituait.
Plusieurs voix contemporaines pointent ce vertige. Que les finalités soient vantées comme émancipatrices ou régulatrices, elles s'appuient avant tout sur une modélisation réductrice et dévitalisante de l'individu. Les processus d'aliénation et de désindividuation déjà à l'œuvre avec l'avènement du numérique s'accélèrent. Le mot juste est désindividuation. Ce qui se joue n'est pas un asservissement classique avec ses chaînes visibles, mais une dissolution lente du contour personnel, une porosité croissante entre ce que je veux et ce que la machine prévoit que je veuille. La promesse d'augmentation, lorsqu'elle s'incarne dans la délégation à un agent extérieur, retourne contre elle-même : le cyborg n'est pas un homme augmenté, mais un vivant diminué. On ne s'augmente pas en confiant à autrui le soin de penser pour soi. On apprend à se passer de cette pensée, et cet apprentissage est irréversible, comme l'est l'oubli des langues, dites “mortes”, que l'on ne pratique plus mais qui pourtant sous-tendent le sens réel et profond des mots et du langage dans son ensemble.
La capture par défaut
Ce qui rend la situation philosophiquement singulière, c'est qu'elle ne procède d'aucun choix. Aucun référendum, aucune délibération publique, aucun questionnement ou consentement éclairé n'a été sollicité. La configuration par défaut est devenue le lieu politique majeur de notre époque. Ce qui se décide là, hors de toute scène, structure des comportements à l'échelle planétaire.
Considérez la séquence stratégique qui s'écrit. Google a confirmé qu'il fusionnera ses systèmes ChromeOS et Android, et que l'OS mobile en sortira triomphant. Sameer Samat l'a officialisé chez Qualcomm. Android sera le vainqueur et les utilisateurs en verront les résultats en 2026.
On lit en creux dans cette décision que Google peut déployer ses services Gemini IA sur davantage d'appareils. Ce n'est pas un choix technique anodin. C'est l'unification du tissu logiciel autour d'un noyau d'IA propriétaire, conçu pour s'installer dans toutes les surfaces de la vie quotidienne, de la poche au bureau.
Alors que ChromeOS est construit sur Chromium avec les applications web comme paradigme principal, Aluminium OS est désormais construit sur Android avec des capacités complètes de bureau dès le premier jour, exécute toutes les applications du Play Store nativement, et Gemini AI est intégré dans le cœur du système d'exploitation et traité localement via NPU , la frontière entre l'outil et la subjectivité devient une fiction administrative. Le fichier weights.bin n'est qu'une avant-garde. Il prépare un terrain où l'agent autonome ne sera plus une option, mais le mode normal d'usage. C'est le signe le plus clair que Google veut que Gemini devienne le système d'exploitation de la vie quotidienne. Les chatbots qui répondent aux questions ne suffisent plus. La prochaine étape est une IA qui fait réellement les choses pour vous sans nécessiter d'instructions constantes. L'expression « système d'exploitation de la vie quotidienne » mérite qu'on s'y arrête.
Elle énonce, en clair, l'horizon : que la médiation algorithmique cesse d'être une option, et devienne l'air ambiant.
Le retard structurel des régulateurs
À ce stade, on attendrait une réponse politique. Elle existe sur le papier. Les entreprises du monde entier entendent désormais l’arbitrage légal qui sera rendu vers le 2 août 2026. Cette date déclenche les principales obligations de l'AI Act de l'UE, redéfinissant fondamentalement les marchés européens de l'intelligence artificielle. Dans la réalité, le tableau se brouille. La Commission européenne a publié le Digital Omnibus sur l'IA le 19 novembre 2025, proposant de reporter la date limite de conformité à haut risque du 2 août 2026 au 2 décembre 2027. Le second trilogue politique du 28 avril 2026 s'est terminé sans accord. Ce qui s'y joue dépasse la chronologie administrative. Cette proposition s'inscrit dans le contexte d'un retard dans la préparation des standards pour soutenir l'application des exigences à haut risque et la mise en place des autorités compétentes dans les États membres. Cela met en péril une entrée en application sans heurts au 2 août 2026 et dans le même temps pétrifie les initiatives des acteurs du second marché de l’IA qui peuvent voir leurs stratégies et leurs investissements réduits à néant en un instant.
Une régulation qui arrive trop tard ne régule pas : elle ratifie. Elle entérine ce que l'industrie a installé pendant la durée de la procédure. L'écart structurel entre la rapidité de déploiement industriel et la lenteur du dispositif régulatoire n'est pas un accident : il est la condition même du modèle.
C'est un trait sociologique profond. Les institutions qui prétendent encadrer la technique sont elles-mêmes structurées par des positions, des trajectoires, des dispositions qui ne leur donnent pas accès à l'objet réel. On y produit des normes, des référentiels, des plans, mais le rapport pratique au code, à l'infrastructure, à la culture des laboratoires fait défaut. Les acteurs industriels disposent d'un capital technique, scientifique, financier, et d'un capital relationnel qui leur permet d'orienter, par mille canaux, le sens des arbitrages. La règle se construit dans un jeu dont les règles sont elles-mêmes définies par l'un des joueurs.
D'où le constat plus large que l'on peut faire : la conjoncture actuelle nourrit le pessimisme face à un avenir obscurci par la dégradation conjointe des conditions d'existence et la radicalisation fasciste du capitalisme numérique. Plus que jamais, la question du travail et de l'impact délétère des technologies sur l'organisation de celui-ci cristallise les débats. La régulation, nécessaire, tardive, incomplète, ne suspendra pas la dynamique d'accaparement, parce que cette dynamique opère ailleurs : dans les configurations par défaut, dans les fichiers que les éditeurs s'autorisent à écrire dans le territoire des autres, dans l’ignorance des utilisateurs quant aux capacités et actions réelles de leurs outils quotidiens, dans les ponts silencieux qui pré-installent demain les capacités d'aujourd'hui.
La même grammaire pour tous
Revenons à Anthropic, parce que ce cas concentre toute la problématique qui nous occupe. Alexander Hanff (consultant SSI qui a découvert le spyware Anthropic), soutient que le comportement constitue une violation de l'article 5(3) de la directive ePrivacy de l'UE, qui exige un consentement explicite avant de stocker ou d'accéder à des informations sur l'appareil de l'utilisateur, sauf nécessité stricte pour le service demandé. Il a envoyé à Anthropic une mise en demeure exigeant des changements opt-in dans les 72 heures.
La description honnête de ce qui se trouve sur la machine est : capacité de spyware pré-installée, silencieusement déposée, dormante, en attente d'activation. Le moment où une extension associée arrive, que l'utilisateur l'installe, qu'une politique d'entreprise la pousse, qu'un attaquant la plante ou que la prochaine mise à jour d'Anthropic la regroupe, le mot dormant disparaît. Ce que documente cette affaire, c'est qu'il n'existe pas, dans l'industrie de l'IA contemporaine, de différence morale décisive entre les acteurs. Le titan publicitaire et le challenger éthique se ressemblent là où on attendait qu'ils diffèrent : dans la manière concrète d'écrire dans nos systèmes. L'un revendique l'optimisation d'expérience, l'autre revendique la sécurité. Tous deux pratiquent la même asymétrie radicale entre leur autorité opérationnelle et l'ignorance dans laquelle ils maintiennent ceux dont les machines exécutent leur code.
C'est ici qu'il faut résister à la tentation morale individualisante, qui voudrait blâmer telle ou telle équipe d'ingénierie. Le problème n'est pas qu'Anthropic ou Google soient peuplés de mauvais ingénieurs. Le problème est que la position structurelle de ces acteurs, dans une économie où la captation est le mode de production, produit mécaniquement ce comportement. Tant que l'on raisonnera entreprise par entreprise, on traitera l'écume. Le courant est ailleurs, dans les prodondeurs.
La fenêtre étroite
Il serait facile, à ce stade, de se laisser glisser dans la lucidité désespérée. Ce serait une erreur. La situation présente comporte aussi, et c'est peut-être là le plus surprenant, une opportunité historique inédite.
Pour la première fois, une partie significative de l'humanité a accès, à coût marginal proche de zéro, à des capacités cognitives qui étaient hier l'apanage de petites élites correctement formées. Un adolescent dans un village isolé peut conduire un dialogue technique de niveau universitaire avec un modèle. Un agriculteur peut faire diagnostiquer une maladie de ses cultures par photo. Une institutrice peut générer du matériel pédagogique adapté en quelques minutes. La promesse, dans son potentiel pur, est massive. Le problème est que cette capacité est captée par quelques opérateurs privés qui, en monétisant l'accès et en organisant la dépendance, transforment une promesse d'émancipation en mécanisme d'aliénation. Mais la promesse, elle, demeure ouverte.
Tenir cette opportunité suppose de défendre trois exigences simultanément :
La première : défendre avec acharnement l'écosystème de l'open source, des modèles ouverts, des poids publiquement disponibles, des protocoles interopérables, des architectures décentralisées. Tant qu'il existe dans le monde des modèles que l'on peut auditer, modifier, exécuter localement sans rendre de comptes, une marge de manœuvre subsiste. Le combat pour l'open source n'est pas un combat de techniciens nostalgiques. C'est le combat politique majeur de cette décennie.
La deuxième : réinvestir l'éducation dans une perspective qui ne soit pas celle de l'adaptation à la technique, mais celle de la formation de sujets capables d'usage critique. Une éducation qui apprend à comprendre comment ces machines fonctionnent, à reconnaître leurs biais, à identifier leurs hallucinations, à les utiliser comme amplificateurs d'une pensée que l'on conduit soi-même plutôt que comme substituts de cette pensée. C'est exigeant, c'est lent, c'est moins spectaculaire qu'une nouvelle régulation européenne, mais c'est la seule garantie durable.
La troisième : penser politiquement, et non plus seulement techniquement, les infrastructures. Les centres de données, les câbles, les usines de semi-conducteurs, l'eau, l'énergie, tout cela compose une géographie matérielle dont la politique est aujourd'hui largement absente. À l'échelle de Chrome, la facture climatique d'un seul push de modèle, payée en CO2 atmosphérique par la planète entière, se situe entre six mille et soixante mille tonnes d'émissions équivalent CO2. C'est le coût environnemental d'une entreprise décidant unilatéralement que le navigateur par défaut de deux milliards de personnes distribuera massivement un binaire de 4 Go qu'ils n'ont pas demandé. Ces chiffres ne sont pas de la communication. Ils décrivent un transfert de coût, depuis l'entreprise qui pousse le modèle vers la collectivité qui en respire le carbone.
Reprendre la main
Il y a, dans l'histoire des techniques, des moments où une fenêtre s'ouvre brièvement, et où la manière dont la société s'en saisit fixe pour des décennies les rapports de force. Nous sommes dans un de ces moments. La forme qu'aura prise l'IA dans dix ans n'est pas écrite. Elle dépend des choix qui se font maintenant, en partie sous nos yeux, en partie à notre insu.
L'enjeu, dès lors, est moins de prédire que de décider. Ce qui se joue avec Remy, avec le téléchargement silencieux du modèle Gemini Nano, avec le pont silencieux de Claude Desktop, avec la fusion d'Android et de ChromeOS, ce n'est pas la fin d'une histoire mais le début d'un récit dont l'issue reste indécise. Refuser le fatalisme techno-déterministe ne signifie pas nier la puissance des dispositifs en cours d'installation. Cela signifie reconnaître que ces dispositifs ne sont pas des forces de la nature. Ils sont des produits de décisions humaines, prises dans des bureaux identifiables, par des personnes nommables, sous des contraintes économiques précises. Ce qui s'est fait peut, à des degrés divers, se défaire, se ralentir, s’amender, se contester, se concurrencer.
Encore faut-il, pour cela, redevenir capables d'une chose simple et difficile : penser par nous-mêmes, à l'heure où une machine prétend penser à notre place. C'est une exigence ancienne, déjà formulée à l'aube des Lumières, et qui prend aujourd'hui une charge nouvelle. Oser savoir, oser comprendre, oser refuser, oser configurer autrement, oser éteindre, oser ralentir. Ces gestes minuscules ne renverseront pas l'ordre du monde. Mais ils maintiennent ouverte la possibilité que l'ordre du monde ne soit pas entièrement écrit par d'autres que nous.
Un fichier de 4 Go déposé en silence par Google. Un pont d'extension préinstallé sans consentement par Anthropic. Un agent personnel qui apprend à anticiper nos désirs. Un système d'exploitation qui se referme sur lui-même. Voilà le décor concret de notre époque. Reste à décider qui, dans ce décor, sera le sujet, et qui sera l'objet. Cette décision n'est pas technique. Elle est, au sens le plus exigeant du mot, philosophique. Et elle nous regarde tous.
