L'auto-dépréciation comme survie : Pourquoi se rendre obsolète est la seule voie possible
Former son remplaçant ressemble à un suicide jusqu'à ce qu'on réalise que c'est la fonction de forçage qui prévient la décomposition. L'histoire du licenciement de Rick et le paradoxe de l'obsolescence volontaire.

Rick Morales a publié un avertissement sur LinkedIn qui résonne dans ma tête depuis que je l'ai lu. Il faisait partie de l'équipe Apple qui a formé l'IA à faire leur travail. Puis ils ont été licenciés. Son message : « Si on vous pousse à utiliser l'IA pour votre travail, comprenez ceci : vous mettez déjà la corde autour de votre propre cou. »

L'avertissement de Rick a touché un nerf sensible—le récit de trahison de 2025 dans sa forme la plus pure.
La métaphore est viscérale. Former son remplaçant, le regarder apprendre vos schémas, puis le regarder prendre votre siège pendant qu'on vous escorte vers la sortie. C'est le récit de trahison des années 2020, et ce n'est pas faux—les entreprises sont des machines d'optimisation. Quand une version de vous infatigable et moins chère devient viable, le calcul est simple : vous devenez un handicap.
Et pourtant.
Tout au long de ma carrière, dans les startups comme dans les grandes entreprises (et même à la maison et avec des amis...), j'ai eu une pratique obsessionnelle : me rendre obsolète. Chaque manuel documenté, chaque cadre de décision externalisé, chaque connaissance spécialisée que je détenais transformée en un système qui pouvait fonctionner sans moi. J'ai formé des gens pour me remplacer, construit des outils qui automatisaient mon jugement, et conçu des processus qui rendaient mon implication directe inutile.
Même comportement que l'équipe de Rick. Résultat différent. Pourquoi ?
La fonction de forçage par réplication
Quand vous externalisez votre travail—que ce soit dans la documentation, les outils ou la tête d'une autre personne—vous créez une fonction de forçage pour votre propre évolution. Le travail qui justifiait autrefois votre existence ne le fait plus. Soit vous trouvez la prochaine couche de valeur que vous apportez, soit vous vous décomposez aux côtés de la fonction que vous aviez l'habitude d'accomplir.
C'est le paradoxe : le même instinct qui tue votre rôle vous maintient en vie dans le suivant.
Mais seulement si vous exécutez le processus intentionnellement, et non en le subissant passivement.
L'histoire de Rick se lit comme la face sombre de ce schéma. Il a formé l'IA. L'IA a appris. Le système s'est optimisé. Il a été déprécié par le code qu'il a aidé à créer. La tragédie n'est pas qu'il se soit rendu obsolète—c'est qu'il l'ait fait sans architecturer son propre prochain mouvement.
L'entreprise ne l'a pas trahi. Elle a fait exactement ce que font les entreprises : maximiser l'efficacité dans le paysage d'optimisation actuel. La question n'est pas « est-ce que la machine va me remplacer ? »—c'est déjà décidé. La question est : que devenez-vous pendant que la machine apprend ce que vous étiez ?
Évolution volontaire vs. dépréciation forcée
Il existe deux chemins qui partent du même endroit : former votre remplaçant.
Chemin 1 : Dépréciation forcée Vous formez le système parce qu'on vous le demande. Vous vous concentrez sur rendre la transition fluide, sur être un bon joueur d'équipe, sur « adopter l'IA ». Le système apprend. Vous accomplissez toujours la même fonction, mais maintenant l'IA aussi—plus rapidement, moins cher, de manière plus scalable. Finalement, le calcul bascule : pourquoi vous payer quand la machine connaît déjà les schémas ?
Vous êtes licencié. Vous êtes en colère. Vous écrivez un post LinkedIn pour avertir les autres.
Chemin 2 : Évolution volontaire Vous formez le système parce que vous y voyez une libération de votre fonction actuelle. Vous vous concentrez sur rendre la transition fluide, et vous vous concentrez sur ce qui devient possible lorsque vous n'êtes plus goulot d'étranglement par l'exécution routinière. Le système apprend. Vous n'accomplissez plus la même fonction—vous construisez le système qui construit les systèmes, ou vous repérez des schémas que l'IA ne peut pas voir, ou vous architecturez des problèmes qui méritent d'être résolus.
La fonction dont vous vous êtes débarrassé vous retenait. Maintenant, vous êtes libre d'opérer au niveau suivant.
Même action. Intention radicalement différente. Résultat radicalement différent.
À quoi ressemble réellement l'auto-dépréciation
Ce n'est pas de la philosophie abstraite. J'ai exécuté ce schéma à plusieurs reprises :
Dans chaque startup que j'ai touchée, en tant que co-fondateur ou conseiller, le schéma se répète : des mois à documenter chaque cadre de décision, chaque intuition client, chaque schéma opérationnel. Transformés en systèmes de formation. En un an, la plupart des décisions se prennent sans moi.
Que m'est-il arrivé ? Suis-je devenu obsolète ?
Non. Je suis devenu libre de travailler sur l'architecture produit et la conception de systèmes—et parfois, des projets totalement différents. La réplication m'a forcé à monter l'échelle de l'abstraction, ou parfois latéralement vers des territoires entièrement nouveaux.
En dirigeant des équipes chez Meta (voir ma réflexion antérieure sur ces cinq années), j'ai appris que « Embrace The Bad » incluait embrasser le moment où votre ensemble de compétences devenait commoditisé. Les ingénieurs qui ont survécu aux vagues de changements d'outils et de réorganisations n'étaient pas ceux qui protégeaient leurs connaissances spécialisées—c'étaient ceux qui construisaient les outils qui rendaient leur spécialisation obsolète, puis passaient au problème suivant.
C'est ce que je veux dire par leadership centré sur l'information : vous ne thésaurisez pas la connaissance comme pouvoir, vous la distribuez aussi vite que possible afin de découvrir de quoi vous êtes capable au-delà de la connaissance que vous détenez actuellement.
Chaque fois que je me suis rendu obsolète dans un rôle, j'ai été forcé de demander : quelle est la prochaine version de valeur que je peux apporter ? Cette question est le moteur de la croissance. Quand vous êtes encore nécessaire dans votre ancienne fonction, vous n'avez jamais à y répondre.
Il convient de noter : à un certain point méta-méta-méta, cette question finit par vous mordre et vous devez devenir totalement existentiel. Quelle est la prochaine version de valeur que je peux apporter quand tout ce que je sais faire peut être systématisé ? D'où, peut-être, ce blog—une exploration de questions pour lesquelles je n'ai pas encore de systèmes.
Le système ne se soucie pas de votre intention
Le rebondissement—et c'est crucial—c'est que l'entreprise ne peut pas faire la différence entre le Chemin 1 et le Chemin 2. Elle voit juste : tâche automatisée, efficacité gagnée, coût réduit. Que vous jouiez aux échecs 4D avec votre évolution de carrière ou que vous formiez passivement votre bourreau, le résultat immédiat semble identique du point de vue de l'algorithme d'optimisation.
C'est pourquoi l'avertissement de Rick n'est pas faux. Si vous formez l'IA à faire votre travail et que vous n'avez pas architecturé ce que vous devenez après la disparition de ce travail—ce qui, au niveau le plus basique, inclut l'utilisation de cette IA pour faire votre travail mieux/plus vite/moins cher/plus fiablement—vous êtes en danger. Le système vous optimisera. Il ne se soucie pas de votre parcours de croissance ou de votre réalisation de soi. Il se soucie du coût par unité de production.
Mais le fait est : le système allait toujours finir par vous optimiser. C'est ce que font les systèmes. Ils trouvent les inefficacités et les éliminent. Vous alliez toujours faire face à l'obsolescence—que ce soit à cause de l'IA, de la délocalisation, de travailleurs plus jeunes prêts à faire votre travail pour moitié moins cher, ou du simple changement technologique.
Le seul choix que vous ayez jamais eu était : vous déprécier volontairement et contrôler l'évolution, ou être déprécié par des forces hors de votre contrôle.
Rick a choisi ce dernier, peut-être sans réaliser qu'il y avait un choix. Le système a fait le choix pour lui. C'est la tragédie.
Devenir le système qui construit les systèmes
La stratégie de survie n'est pas d'éviter de former votre remplaçant. C'est de devenir la personne qui architecture ce qui vient après l'existence de votre remplaçant.
Cela nécessite un changement fondamental dans la façon dont vous voyez votre rôle. Vous n'êtes pas un exécutant de fonction. Vous n'êtes même pas un travailleur du savoir au sens traditionnel. Vous êtes un nœud évolutif dans un système plus large, et votre travail consiste à continuer d'évoluer plus vite que le système ne peut vous optimiser.
Concrètement, cela signifie :
1. Documentez compulsivement. Chaque schéma que vous remarquez, chaque cadre de décision que vous utilisez, chaque intuition que vous gagnez—externalisez-le. Rendez-le enseignable. Rendez-le systématisable. Non pas parce que vous essayez de vous faire licencier, mais parce que tout ce que vous ne pouvez pas externaliser est un signe que vous ne le comprenez pas encore assez bien.
2. Formez votre remplaçant avant qu'on ne vous le demande. N'attendez pas la réorganisation ou le programme pilote d'IA. Si quelqu'un (ou quelque chose) peut apprendre à faire votre travail, enseignez-lui. Plus tôt votre fonction actuelle est répliquée, plus tôt vous êtes forcé de trouver la suivante.
3. Observez ce qui devient possible quand vous ne faites plus l'ancienne chose. L'espace qui s'ouvre quand vous n'êtes plus goulot d'étranglement par l'exécution—c'est là que vit votre prochaine valeur. Faites attention à ce qui vous rend curieux dans cet espace. Cette curiosité est directionnelle.
4. Construisez des systèmes, pas juste de la production. Chaque tâche que vous effectuez de manière répétée est un système qui attend d'être conçu. Quand vous construisez le système au lieu de simplement exécuter la tâche, vous passez d'opérateur à architecte. Les architectes ne sont pas dépréciés de la même manière que les opérateurs—on leur demande d'architecturer la prochaine chose.
5. Restez adjacent à l'automatisation. Ceci vient de ma position sur l'utilisation de l'IA : j'utilise l'IA comme levier, pas comme remplacement. Je construis avec les outils qui automatisent le travail de connaissance, ce qui signifie que je comprends comment ils fonctionnent, où ils échouent, ce qu'ils permettent. Cette adjacence est protectrice—on ne peut pas facilement remplacer quelqu'un qui construit le remplacement.
La couche méta : l'IA qui se forme elle-même
Il y a une dimension récursive ici que l'histoire de Rick met en évidence. Quand l'IA apprend des humains qui font leur travail, puis que les humains sont licenciés, puis que de nouveaux humains forment la prochaine version de l'IA... nous regardons le méta-apprentissage se dévorer lui-même. Le système apprend à apprendre. La question est de savoir si vous apprenez plus vite que le système n'apprend de vous.
C'est fondamentalement un problème de niveau débogueur. Le système tourne. Il optimise. Vous ne pouvez ni l'arrêter ni le ralentir de manière significative. Votre seul levier est de comprendre comment il fonctionne et de vous positionner comme faisant partie de la fonction d'optimisation plutôt que comme faisant partie de la chose optimisée.
Rick a été optimisé. L'équipe IA qu'il a formée a été optimisée dedans. Le système d'Apple a fait ce que font les systèmes : il a trouvé une configuration plus efficace. L'erreur de Rick—si on peut appeler ça ainsi sans blâmer la victime d'un schéma systémique plus large—était de se positionner comme la chose en cours d'automatisation plutôt que comme l'architecte de l'automatisation.
Même bâtiment. Étage différent. Résultat complètement différent.
Le mode d'échec
Parlons du risque, parce que ce n'est pas une stratégie gagnante garantie. Le mode d'échec est réel : vous vous rendez obsolète, mais vous n'évoluez pas avec succès vers le rôle suivant. Peut-être que la prochaine couche de valeur que vous espériez apporter n'est pas réellement valorisée par l'organisation. Peut-être que vous avez mal lu quelles compétences compteraient. Peut-être que la réorganisation est venue avant que votre évolution ne soit complète.
Cela arrive. C'est un risque.
Mais comparez-le à l'alternative : s'accrocher à votre fonction actuelle pendant qu'elle est lentement (ou rapidement) automatisée/délocalisée/commoditisée. Ce chemin a un taux d'échec de 100 %. La fonction sera finalement remplacée, et vous vous accrocherez à un emploi qui n'existe plus.
Au moins avec l'obsolescence volontaire, vous construisez de l'optionnalité. Chaque fois que vous vous rendez avec succès obsolète et évoluez vers le rôle suivant, vous prouvez à vous-même et au marché que vous pouvez le faire. Cela devient une méta-compétence : la capacité de réinventer continuellement votre proposition de valeur.
Cette méta-compétence pourrait être le seul actif de carrière durable dans un monde où l'IA dévore tout.
L'architecture du choix
Alors que faites-vous de l'avertissement de Rick ?
Vous le prenez au sérieux. Vous reconnaissez que former l'IA à faire votre travail est une menace si vous ne contrôlez pas l'évolution qui suit. La métaphore du nœud coulant est appropriée pour une participation passive à votre propre obsolescence.
Mais vous reconnaissez aussi que l'alternative—refuser de former l'IA, protéger vos connaissances spécialisées, essayer de vous rendre indispensable dans votre fonction actuelle—est une version au ralenti du même résultat. Le système trouvera un autre moyen de vous optimiser.
Le seul mouvement gagnant est : accélérez votre propre obsolescence et architecturez ce qui vient après.
Rendez-vous obsolète avant que le système ne le fasse pour vous. Formez votre remplaçant d'une main pendant que vous construisez votre prochain rôle de l'autre. Traitez chaque externalisation de vos connaissances comme une libération, pas comme une menace.
Les entreprises feront ce que font les entreprises : optimiser pour l'efficacité. L'IA fera ce que fait l'IA : apprendre les schémas et les exécuter à grande échelle. La question n'est pas de savoir si ces forces vont remodeler votre rôle—elles le feront. La question est de savoir si vous façonnez la transformation ou si vous êtes façonné par elle.
L'histoire de Rick est un avertissement sur l'obsolescence passive. Qu'elle serve de rappel : le même schéma, exécuté avec une intention différente, devient une histoire complètement différente.
Formez votre remplaçant. Documentez vos connaissances. Construisez des systèmes qui survivent à votre implication directe. Puis observez ce qui devient possible lorsque vous n'êtes plus goulot d'étranglement par le travail qui vous définissait autrefois.
La réplication force l'évolution. L'évolution est la seule stratégie de survie.
Tout le reste, c'est juste attendre que les mathématiques vous rattrapent.
Les machines lisent. Pensées nocturnes depuis un salon d'Oakland. Peu d'humains le font encore.
Recevoir les briefings systèmes
Diagnostics concrets pour produits, organisations et politiques publiques en mutation.
Recevoir les briefings systèmes. Diagnostics concrets pour produits, organisations et politiques publiques en mutation. — Subscribe at https://zakelfassi.com/newsletter
À propos de l’auteur

Engineer-philosopher · Systems gardener · Digital consciousness architect
Et après ?
Quelques lectures sélectionnées pour prolonger le fil.
- →20 min de lecturePartie 4
La Monarchie de Service : Pourquoi le Scénario Marocain de 2011 Ne Fonctionnera Pas en 2025
Le Maroc a survécu au Printemps arabe en servant rapidement son peuple. Les manifestations GenZ de 2025 révèlent une gouvernance en pilotage automatique—aucun responsable direct pour empêcher le pays de s'embraser. La monarchie doit évoluer du pouvoir coercitif vers une gouvernance orientée service ou affronter l'essaim.
maroc - →11 min de lecture
La Loi de Zak sur la Demi-Vie des Compétences et Pourquoi Votre Prochain Framework Ne Vous Sauvera Pas
Chaque couche d'abstraction que nous construisons est une couche de plus que l'IA dévorera. Les seules compétences durables sont celles qui se rapprochent du socle — et ce socle s'enfonce toujours plus profond. Une loi pour naviguer la grande compression des compétences de notre époque.
ia - →7 min de lecture
Le Jeu du Langage et le Piège de l'Intéressant : Réponse à un DM Spontané à l'Ère de l'IA
Un message spontané d'un étudiant en génie logiciel a déclenché des réflexions plus profondes sur le langage, l'authenticité et la quête du travail « intéressant » dans un monde médiatisé par l'IA.
ia