L’autonomisation continue de nos environnements par l’intelligence artificielle (IA) et les technologies autonomes constitue un tournant anthropologique majeur. Elle interroge à la fois notre rapport au monde, notre ontologie et l’évolution des savoirs. Cette transformation, loin d’être neutre, révèle des dynamiques profondes, des motifs historiques et des conséquences complexes sur le long terme.
En s’appuyant sur les perspectives de philosophes contemporains comme Bernard Stiegler, Gilbert Simondon, Bruno Latour, Donna Haraway ou encore Augustin Berque, il est possible de décrypter les implications de cette mutation et d’envisager ses tendances futures.
Le robot est le message
Le moteur principal de cette autonomisation réside dans un double mouvement. D’une part, la quête d’efficience et de rationalité, inscrite dans la logique même de la modernité, cherche à optimiser les processus humains et organisationnels. Selon Bernard Stiegler (2019), l’automatisation prolonge une dynamique historique où la technique, en devenant de plus en plus autonome, restructure nos sociétés et nos rapports au temps.
D’autre part, comme l’a montré Gilbert Simondon (1958), la technologie répond au besoin humain de déléguer certaines tâches à des objets techniques, libérant ainsi l’individu tout en transformant son rapport au monde. Cette délégation, initialement liée à des besoins pratiques, s’intensifie avec l’IA, où des fonctions traditionnellement humaines — comme la décision ou la réflexion — sont assumées par des systèmes algorithmiques.
Cependant, cette autonomisation reconfigure profondément nos milieux, au sens mésologique défini par Augustin Berque (2000). Le milieu, co-construit par l’interaction entre l’humain et son environnement, est aujourd’hui infiltré par des flux de données et des prises de décision autonomes qui en altèrent les équilibres.
Les environnements technologiques, en devenant des acteurs autonomes, modifient la manière dont les humains habitent le monde. Ce phénomène, selon Berque, constitue une transformation du milieu éco-techno-symbolique, où l’hypertrophie des dimensions techniques et abstraites écrase les expériences sensibles et incarnées. À titre d’exemple, les algorithmes de recommandation, omniprésents dans nos vies numériques, restructurent nos interactions avec le savoir et la culture, tout en limitant la pluralité des expériences vécues.
La désincarnation de l'humain
Cette intrusion technologique engendre aussi une temporalité accélérée, incompatible avec les rythmes naturels de l’habitation humaine. Comme l’évoque Stiegler (2019), l’automatisation produit une perte de contrôle sur le temps, car les processus technologiques s’opèrent à une échelle bien plus rapide que celle de la pensée humaine. Cette dynamique affecte particulièrement nos capacités d’attention et de réflexion critique, réduisant notre aptitude à habiter pleinement le monde. Bruno Latour (2005) met également en garde contre l’illusion d’une neutralité technologique : les environnements automatisés, loin d’être objectifs, incarnent des logiques sociales, politiques et économiques qui amplifient les asymétries de pouvoir.
Sur le plan ontologique, cette autonomisation interroge la place et le rôle de l’humain. Avec Heidegger (1954), on peut voir dans cette transformation une manifestation de l’arraisonnement (Gestell), où le monde est progressivement réduit à un stock de ressources disponibles. L’humain devient un utilisateur passif dans un environnement structuré pour lui, mais sans lui, ce qui altère son intentionnalité. Francisco Varela (1991), en introduisant le concept de cognition incarnée, soulignait déjà l’importance de la corporéité et de l’interaction sensible dans la construction de l’expérience humaine. Or, l’autonomisation des environnements tend à désincarner ces interactions, réduisant l’humain à un simple opérateur d’infrastructures technologiques.
De manière plus générale, l’autonomisation des environnements remet en cause l’ontologie humaine en transformant l’agir. L’action directe laisse place à une programmation des actions, où l’humain ne décide plus, mais configure des systèmes qui décident pour lui. Cette redistribution de l’agir, bien qu’efficace, fragilise l’humain en le rendant dépendant de technologies complexes qu’il ne maîtrise pas toujours pleinement. Donna Haraway (1991), dans son manifeste cyborg, envisage cette hybridation homme-machine comme une opportunité, mais met aussi en garde contre les dérives de la domination technologique sur l’humain.
Ces bouleversements affectent profondément les savoirs. L’autorité épistémique, traditionnellement incarnée par l’expertise humaine, se déplace aujourd’hui vers les systèmes algorithmiques. Les savoirs produits par les machines, perçus comme neutres et objectifs, risquent de supplanter des formes de connaissance plus contextualisées et incarnées. Comme le souligne Haraway (1988), cette illusion de neutralité cache les biais et les intérêts inscrits dans les technologies elles-mêmes. De plus, la logique algorithmique, centrée sur la quantification et l’optimisation, réduit les savoirs à des données abstraites, coupées des réalités vécues. Cette tendance fragilise particulièrement les savoirs sensibles et relationnels, essentiels à une compréhension holistique du monde.
La condition humaine comme condition à la technologie
Sur le long terme, plusieurs tendances se dessinent. L’une des plus préoccupantes est le renforcement des asymétries de pouvoir. Comme le montre Zuboff (2019), l’économie de la surveillance, qui repose sur l’exploitation des données personnelles, accroît les inégalités entre ceux qui maîtrisent les technologies autonomes et ceux qui en dépendent. Par ailleurs, la dépendance croissante aux environnements autonomes pourrait entraîner une fragilité écologique et sociale. Une rupture de ces infrastructures, par exemple, compromettrait gravement notre capacité à agir et à décider.
Cependant, des alternatives sont possibles. En s’appuyant sur les travaux de Katherine Hayles (1999) sur la posthumanité, il est envisageable de concevoir une symbiose entre humains et technologies, où l’autonomie des environnements ne serait pas une menace, mais une opportunité d’augmenter les capacités humaines tout en respectant leur diversité et leur complexité. Cette symbiose implique de repenser nos rapports aux savoirs et aux milieux dans une perspective relationnelle et écosystémique.
Pour conclure, l’autonomisation des environnements, bien qu’inévitable, ne doit pas être pensée comme une fatalité. Elle invite à cultiver une vigilance critique et à réinvestir les dimensions sensibles et relationnelles de notre rapport au monde. Augustin Berque (2000) rappelle que l’humain est un être de milieu, inscrit dans une trame complexe d’interactions entre le naturel, le technique et le symbolique. Si cette trame est déséquilibrée, l’humain risque de perdre sa capacité à habiter pleinement le monde.
Une ontologie relationnelle augmentée, fondée sur une co-évolution entre humains, technologies et milieux, pourrait offrir une voie pour surmonter ces défis tout en préservant les valeurs fondamentales de la condition humaine.
Sources
Berque, A. (2000). Écoumène: Introduction à l'étude des milieux humains. Belin.
https://amzn.to/4hEMNIp
Haraway, D. J. (1988). Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies, 14(3), 575–599.
https://www.jstor.org/stable/3178066
Haraway, D. J. (1991). Simians, Cyborgs, and Women: The Reinvention of Nature. Routledge.
https://amzn.to/4hZ3bn0
Heidegger, M. (1954). Die Frage nach der Technik. Günther Neske.
https://amzn.to/3QiExlA
Latour, B. (2005). Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press.
https://amzn.to/415nhoC
Simondon, G. (1958). Du mode d’existence des objets techniques. Aubier.
https://amzn.to/41kwQlh
Stiegler, B. (2019). Qu’appelle-t-on panser ? 1. L’immense régression. Les Liens Qui Libèrent.
https://amzn.to/4jZMSrU
Varela, F. J., Thompson, E., & Rosch, E. (1991). The Embodied Mind: Cognitive Science and Human Experience. MIT Press.
Zuboff, S. (2019). L'âge du capitalisme de surveillance - Shoshana Zuboff
https://amzn.to/4357uJr
Voir plus d'articles de cet auteur