23/10/25

« Empêcher l'obsolescence d'"Homo sapiens" »

Recension du Désert de nous-mêmes et de Penser à nous-mêmes d'Éric Sadin par David Zerbib dans Le Monde des Livres.

Le rôle d'une théorie critique "n'est pas crier au feu lorsque la maison brûle", mais de nous aider à "être en éveil", écrit Éric Sadin dans Le Désert de nous-mêmes. À lire cet infatigable chronique des dangers des technologiques numériques (dont paraît simultanément un recueil de ses interventions dans les médias, Penser à temps. Faire face à l'emprise numérique (2013-2025), préface d'Anne Crignon, L'échappée, 200 p. 11 €), il ne serait pas encore trop tard pour éveiller les consciences, tandis que le feu prométhéen d'une technique à nulle autre pareille, l'intelligence artificielle (IA), s'apprêtait à réduire en cendre, non pas notre maison - connectée bien sûr - mais l'humain qui l'habite.

Car la question de l'IA, pour le philosophe, ne se pose pas sous l'angle d'une comparaison coûts-bénéfices. Cette approche utilitariste dominante dans lequel, pointe-il, nos gouvernants plongent avec un enthousiasme irresponsable. La vraie question, pour celui qui organise "un contre-sommet de l'IA" à Paris, en février, se pose en termes civilisationnels et anthropologiques. Avec l'IA générative et tout particulièrement le lancement de ChatGPT en novembre 2022, un "tournant intellectuel et créatif" de la technologie a été pris qui représente, selon lui, "un seuil inédit dans l'histoire de l'humanité".

Appelés à rendre obsolète Homo faber autant qu'Homo sapiens en externalisant "la quasi-totalité de nos aptitudes" jusqu'à altérer "nos compétences neuronales, linguistiques et comportementales", le développement et l'adoption de l'IA, écrit-il conduisent à la "déprise de nous-mêmes" et à un processus continu d'"anhumanisation. Si donc l'humain est en danger, à travers ce qui le définit en propre, alors il faut raisonner en termes non pas de "régulation" mais de droits humains.

En proposant sept exigences éthiques et autant d'actions concrètes (comme à la reconnaissance du "droit à ne pas plier à l'injonction technologique" ou l'appel au "développement de contre-expertises"), ce livre incarne l'urgence brûlante de nous donner au moins le temps de penser à les implications profondes de l'IA (...).

Pour lire la suite : www.lemonde.fr/livres/article/2025/10/23/un-taylorisme-augmente-de-juan-sebastian-carbonell-et-traumachine-de-frederic-neyrat-penser-contre-l-ia-tout-contre_6649061_3260.html