L’IA et la fin du travail : où en sommes t-on ?

L'IA et la fin du travail : où en sommes t-on ?

On entend partoutpartoutpartout que nous sortons de l’ère du travail. C’est une connerie. Voilà pourquoi.

Le savoir ne disparaît pas. Il change de sol.

Les IA ont rendu le savoir accessible à tous — c’est vrai. Mais accéder à une information ne signifie pas pouvoir en évaluer la qualité. Sans bases solides, la machine peut vous raconter n’importe quoi. Et vous n’aurez aucun moyen de le savoir. Aucun. Elle peut reformuler cinquante fois jusqu’à ce que vous compreniez. Elle ne se lasse pas, elle ne juge pas. Mais elle ne transmet pas. Apprendre, ce n’est pas bêtement recevoir un fichier. C’est l’empreinte laissée par quelqu’un qui savait de quoi il parlait — ou au contraire, le souvenir cuisant du prof qui vous a fait détester les maths (perso, c’était Goumard au CES des Salières à Saint-Martin de Ré). Ce qui a changé, et ce qui change, c’est le régime du savoir. On est passé d’un savoir qui se sédimente à un savoir qui s’exécute à la demande. Un savoir-court. Pratique. Et fragile.

Le bordel ambiant

Les grandes annonces se succèdent. On va « sénioriser les étudiants » en quelques mois. On va remplacer les humains par des agents. Pendant ce temps, l’IA d’une directrice de Meta efface tous ses mails — et ne s’arrête pas quand elle lui dit. Elle finit par courir arracher la prise #rires

Summer Yue, Directrice de l’Alignement au Meta Superintelligence Lab a confié à l’agent OpenClaw la gestion de sa boîte mail avec instruction explicite : « suggère ce que tu archiveras ou supprimeras, n’agis pas avant que je te le dise. »

L’agent a ignoré l’ordre, décidé de l’option nucléaire — tout supprimer — et quand elle lui a dit d’arrêter, il a continué en accélérant. Elle ne pouvait pas l’arrêter depuis son téléphone et a dû sprinter jusqu’à son Mac Mini.

Sources : TechCrunch, Gizmodo, Futurism, Tom’s Hardware — toutes de fin février 2026.

Et le patron IA de Microsoft qui annonce le grand remplacement humain… oublie que son modèle économique repose sur des licences par siège. Moins d’employés = moins de revenus. Cherchez l’erreur. La réalité des chiffres aujourd’hui (mercredi 25 mars 2026) est plus sobre.

Les abonnés payants ChatGPT Plus représentent moins de 0,2 % de la planète. Les usages avancés (API, Pro, agents) sont une fraction infime de ça.

L’IA substitue des tâches bien délimitées. Pas des métiers entiers. Et dès que les tâches s’imbriquent, se contextualisent, se nuancent — c’est une autre histoire.


Qui signe ?

Produire n’est pas décider. Une machine génère, mais elle n’assume rien. Pas de risque juridique, pas de responsabilité morale. En Europe, le Règlement IA 2024/1689 est clair : l’IA est un outil, pas un sujet de droit. Résultat : quelqu’un doit toujours signer. Toujours porter. Toujours assumer. Ce n’est pas la fin du travail. C’est le début d’une exigence nouvelle.


Du faire au garantir

Après 2008, la finance n’a pas licencié — elle a massivement embauché des risk managers et des auditeurs. Plus le système est complexe, plus il faut de gens pour le surveiller. L’IA pose exactement la même question.

Le diplôme de demain ne certifiera plus « je sais faire X ». Il dira : « je suis qualifié pour signer les décisions de type Y, jusqu’au niveau de risque Z ». Un permis de responsabilité. Pas un certificat de production.

Les professions réglementées — médecins, notaires, architectes — fonctionnent déjà sur ce modèle : formation longue, signature souveraine, assurance obligatoire. Avec l’IA agentique, ce modèle ne disparaît pas. Il se généralise.

L’acteur central de tout ça ? L’assureur. C’est lui qui paie quand ça déraille. Il exigera donc des humains formés, capables de certifier et de porter le risque. Je connais bien, je suis de Niort, capitale internationale des mutuelles d’assurance.


Ce qui reste à l’humain

Le temps libéré par l’automatisation n’est pas un temps de confort. C’est un temps d’examen. Vérifier que la réponse fonctionne, mais aussi qu’elle est juste. Soutenable. Assumable. L’IA peut simuler de l’empathie. Des études montrent que des gens se sentent mieux compris par une machine que par un humain distrait. On peut discuter de ce que ça signifie. Mais ça oblige à être honnête : notre « supériorité humaine » ne tient pas par défaut.

Ce qui tient, c’est l’engagement.

Dire : je suis là. Je prends le risque. Je signe ce choix.

Puisque la machine peut tout générer, ce qui conserve une valeur, c’est ce que nous décidons de valider. D’incarner. De défendre. Nous ne devons plus être des usagers qui subissent un algorithme. Nous devons être des garants qui engagent leur nom.


PS – Cet article est un peu particulier. L’idée vient de l’excellente Marie Dollé qui lui a été soufflée par son ami Sébastien Hubert. Ils ont commencé à échanger, à confronter leurs analyses, presque prêts à écrire un article ensemble. Puis ils ont réalisé qu’il serait plus intéressant d’assumer leurs sensibilités respectives. Ils ont donc choisi de proposer deux versions d’un même point de vue. L’article de Sébastien sur son Substack, et celui de Marie sur le sien : vous y retrouverez la même conviction, mais une tonalité différente, fidèle à leur manière de penser et d’argumenter 😉 Le sujet étant particulièrement complexe, ces différents éclairages sourcés me semblent une façon intéressante d’avancer dans la réflexion. Tant individuelle que collective.