Articles

Publié le 18 février 2025 Mis à jour le 19 février 2025

Les enjeux de la délégation aux machines

Le milieu, co-construit par l’interaction entre l’humain et son environnement, est aujourd’hui infiltré...

source unsplash machine

L’autonomisation continue de nos environnements par l’intelligence artificielle (IA) et les technologies autonomes constitue un tournant anthropologique majeur. Elle interroge à la fois notre rapport au monde, notre ontologie et l’évolution des savoirs. Cette transformation, loin d’être neutre, révèle des dynamiques profondes, des motifs historiques et des conséquences complexes sur le long terme.

En s’appuyant sur les perspectives de philosophes contemporains comme Bernard Stiegler, Gilbert Simondon, Bruno Latour, Donna Haraway ou encore Augustin Berque, il est possible de décrypter les implications de cette mutation et d’envisager ses tendances futures.

Le robot est le message

Le moteur principal de cette autonomisation réside dans un double mouvement. D’une part, la quête d’efficience et de rationalité, inscrite dans la logique même de la modernité, cherche à optimiser les processus humains et organisationnels. Selon Bernard Stiegler (2019), l’automatisation prolonge une dynamique historique où la technique, en devenant de plus en plus autonome, restructure nos sociétés et nos rapports au temps.

D’autre part, comme l’a montré Gilbert Simondon (1958), la technologie répond au besoin humain de déléguer certaines tâches à des objets techniques, libérant ainsi l’individu tout en transformant son rapport au monde. Cette délégation, initialement liée à des besoins pratiques, s’intensifie avec l’IA, où des fonctions traditionnellement humaines — comme la décision ou la réflexion — sont assumées par des systèmes algorithmiques.

Cependant, cette autonomisation reconfigure profondément nos milieux, au sens mésologique défini par Augustin Berque (2000). Le milieu, co-construit par l’interaction entre l’humain et son environnement, est aujourd’hui infiltré par des flux de données et des prises de décision autonomes qui en altèrent les équilibres.

Les environnements technologiques, en devenant des acteurs autonomes, modifient la manière dont les humains habitent le monde. Ce phénomène, selon Berque, constitue une transformation du milieu éco-techno-symbolique, où l’hypertrophie des dimensions techniques et abstraites écrase les expériences sensibles et incarnées. À titre d’exemple, les algorithmes de recommandation, omniprésents dans nos vies numériques, restructurent nos interactions avec le savoir et la culture, tout en limitant la pluralité des expériences vécues.

La désincarnation de l'humain

Cette intrusion technologique engendre aussi une temporalité accélérée, incompatible avec les rythmes naturels de l’habitation humaine. Comme l’évoque Stiegler (2019), l’automatisation produit une perte de contrôle sur le temps, car les processus technologiques s’opèrent à une échelle bien plus rapide que celle de la pensée humaine. Cette dynamique affecte particulièrement nos capacités d’attention et de réflexion critique, réduisant notre aptitude à habiter pleinement le monde. Bruno Latour (2005) met également en garde contre l’illusion d’une neutralité technologique : les environnements automatisés, loin d’être objectifs, incarnent des logiques sociales, politiques et économiques qui amplifient les asymétries de pouvoir.

Sur le plan ontologique, cette autonomisation interroge la place et le rôle de l’humain. Avec Heidegger (1954), on peut voir dans cette transformation une manifestation de l’arraisonnement (Gestell), où le monde est progressivement réduit à un stock de ressources disponibles. L’humain devient un utilisateur passif dans un environnement structuré pour lui, mais sans lui, ce qui altère son intentionnalité. Francisco Varela (1991), en introduisant le concept de cognition incarnée, soulignait déjà l’importance de la corporéité et de l’interaction sensible dans la construction de l’expérience humaine. Or, l’autonomisation des environnements tend à désincarner ces interactions, réduisant l’humain à un simple opérateur d’infrastructures technologiques.

De manière plus générale, l’autonomisation des environnements remet en cause l’ontologie humaine en transformant l’agir. L’action directe laisse place à une programmation des actions, où l’humain ne décide plus, mais configure des systèmes qui décident pour lui. Cette redistribution de l’agir, bien qu’efficace, fragilise l’humain en le rendant dépendant de technologies complexes qu’il ne maîtrise pas toujours pleinement. Donna Haraway (1991), dans son manifeste cyborg, envisage cette hybridation homme-machine comme une opportunité, mais met aussi en garde contre les dérives de la domination technologique sur l’humain.

Ces bouleversements affectent profondément les savoirs. L’autorité épistémique, traditionnellement incarnée par l’expertise humaine, se déplace aujourd’hui vers les systèmes algorithmiques. Les savoirs produits par les machines, perçus comme neutres et objectifs, risquent de supplanter des formes de connaissance plus contextualisées et incarnées. Comme le souligne Haraway (1988), cette illusion de neutralité cache les biais et les intérêts inscrits dans les technologies elles-mêmes. De plus, la logique algorithmique, centrée sur la quantification et l’optimisation, réduit les savoirs à des données abstraites, coupées des réalités vécues. Cette tendance fragilise particulièrement les savoirs sensibles et relationnels, essentiels à une compréhension holistique du monde.

La condition humaine comme condition à la technologie

Sur le long terme, plusieurs tendances se dessinent. L’une des plus préoccupantes est le renforcement des asymétries de pouvoir. Comme le montre Zuboff (2019), l’économie de la surveillance, qui repose sur l’exploitation des données personnelles, accroît les inégalités entre ceux qui maîtrisent les technologies autonomes et ceux qui en dépendent. Par ailleurs, la dépendance croissante aux environnements autonomes pourrait entraîner une fragilité écologique et sociale. Une rupture de ces infrastructures, par exemple, compromettrait gravement notre capacité à agir et à décider.

Cependant, des alternatives sont possibles. En s’appuyant sur les travaux de Katherine Hayles (1999) sur la posthumanité, il est envisageable de concevoir une symbiose entre humains et technologies, où l’autonomie des environnements ne serait pas une menace, mais une opportunité d’augmenter les capacités humaines tout en respectant leur diversité et leur complexité. Cette symbiose implique de repenser nos rapports aux savoirs et aux milieux dans une perspective relationnelle et écosystémique.

Pour conclure, l’autonomisation des environnements, bien qu’inévitable, ne doit pas être pensée comme une fatalité. Elle invite à cultiver une vigilance critique et à réinvestir les dimensions sensibles et relationnelles de notre rapport au monde. Augustin Berque (2000) rappelle que l’humain est un être de milieu, inscrit dans une trame complexe d’interactions entre le naturel, le technique et le symbolique. Si cette trame est déséquilibrée, l’humain risque de perdre sa capacité à habiter pleinement le monde.

Une ontologie relationnelle augmentée, fondée sur une co-évolution entre humains, technologies et milieux, pourrait offrir une voie pour surmonter ces défis tout en préservant les valeurs fondamentales de la condition humaine.

Sources

Berque, A. (2000). Écoumène: Introduction à l'étude des milieux humains. Belin.
https://amzn.to/4hEMNIp

Haraway, D. J. (1988). Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies, 14(3), 575–599.
https://www.jstor.org/stable/3178066

Haraway, D. J. (1991). Simians, Cyborgs, and Women: The Reinvention of Nature. Routledge.
https://amzn.to/4hZ3bn0

Heidegger, M. (1954). Die Frage nach der Technik. Günther Neske.
https://amzn.to/3QiExlA

Latour, B. (2005). Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press.
https://amzn.to/415nhoC

Simondon, G. (1958). Du mode d’existence des objets techniques. Aubier.
https://amzn.to/41kwQlh

Stiegler, B. (2019). Qu’appelle-t-on panser ? 1. L’immense régression. Les Liens Qui Libèrent.
https://amzn.to/4jZMSrU

Varela, F. J., Thompson, E., & Rosch, E. (1991). The Embodied Mind: Cognitive Science and Human Experience. MIT Press.

Zuboff, S. (2019). L'âge du capitalisme de surveillance - Shoshana Zuboff
https://amzn.to/4357uJr


Voir plus d'articles de cet auteur

Dossiers

  • Robots

  • Tendances


Le fil RSS de Thot Cursus - Besoin d'un lecteur RSS ? FeedBinFeedly , NewsBlur


Les messages de Thot sur BlueSky



Superprof : la plateforme pour trouver les meilleurs professeurs particuliers en France (mais aussi en Belgique et en Suisse)


Réviser le Code de la route



Recevez notre Dossier de la semaine par courriel

Restez informé sur l’apprentissage numérique sous toutes ses formes. Des idées et des ressources intéressantes. Profitez-en, c’est gratuit !