Articles

L'intelligence artificielle : entre surveillance et transparence - 1 de 2

Ethique, pédagogie et technologies d'influence et de transparence

Par Virginie Guignard Legros , le 27 janvier 2019 | Dernière mise à jour de l'article le 01 mars 2019

Depuis les premiers pas de l’intelligence artificielle

“McCorduck 2004 écrit en 2004 que « l'intelligence artificielle sous une forme ou une autre est une idée qui s'est répandue dans l'histoire de la pensée occidentale, un rêve au besoin pressant d'être réalisé, » que l'on retrouve dans les mythes, légendes, histoires, spéculations et automates anthropomorphes de l'humanité”...

Le 11 mai 1997, Deep Blue est devenu le premier système informatique de jeu d'échecs à battre le champion du monde en titre, Garry Kasparov. En 2005, un robot de Stanford a remporté le DARPA Grand Challenge en conduisant de manière autonome pendant 131 milles sur une piste de désert sans avoir fait de reconnaissance préalable. Deux ans plus tard, une équipe de Carnegie-Mellon remporte le DARPA Urban Challenge, cette fois en navigant en autonome pendant 55 milles dans un environnement urbain tout en respectant les conditions de trafic et le code de la route. En février 2011, dans un match de démonstration du jeu télévisé Jeopardy!, les deux plus grands champions de Jeopardy!, Brad Rutter et Ken Jennings ont été battus avec une marge confortable par le système de questions-réponses conçu par IBM, au centre de recherche Watson".

Source : Wikipédia Histoire de l’intelligence artificielle
https://fr.wikipedia.org/wiki/Histoire_de_l%27intelligence_artificielle

Nous sommes au début d’une nouvelle ère régie par l’intelligence artificielle. Elle a mis du temps à battre les champions d’échecs et à partir de là, chacun d’entre nous s’est rendu compte que l’on était plus seuls sur les rangs de l’intelligence réflexive. Mais, jusqu’en 2004, elle reste théorique car gamifiée. Elle n’est pas encore entrée dans les affaires, ni dans le prédictif, ni dans la comparaison de données, c’est une intelligence digitale encore adolescente, encore gadget qui n’a pas encore prouvé son utilité sur le marché du travail, dans le domaine communautaire ou dans la gestion des données.

Depuis 2004, les choses ont bien changée et le rêve est devenu réalité.

“IBM crée le nouveau groupe Watson pour répondre à la demande croissante en innovations cognitives.

Situé à New York, sur Silicon Alley, le nouveau groupe IBM Watson comprendra le Carrefour d’innovations Watson et soutiendra les nouveaux produits et les jeunes entreprises. Le groupe Watson présente de nouvelles solutions en nuage pour l’accélération de la recherche, la visualisation des mégadonnées et l’exploration par l’analytique”.

Sources : IBM - janvier 2014
https://www.ibm.com/news/ca/fr/2014/01/09/20140109.html

S'il existe d’autres systèmes d’intelligence artificielle, c’est Watson d’IBM qui va la démocratiser  sur la planète auprès du grand public. Il stocke, il filtre, il compare, il apprend de lui-même et en 2018, il commence à avoir une place incontournable dans les cabinets d’avocats, les analyses radiologiques et autres. Les machines commencent à remplacer les humains dans tous les domaines de la vie. Il se met en place une standardisation du travail au niveau des protocoles des machines. Cela commence doucement avec les métiers les plus pénibles.

“Des machines chez Carrefour, Amazon et Alibaba

Le progrès technique permet de diffuser des innovations qui se substituent aux métiers les plus pénibles, en remplaçant l'humain par la machine. Les caissiers ont commencé à disparaître, remplacés par des bornes électroniques, dans un mouvement de fond qui a démarré il y a une dizaine d'années et qui continue en s'accélérant comme l'illustre très bien l'exemple de  la suppression de 1.800 emplois chez Carrefour”.

Sources : Les humains remplacés par les robots ? Tant mieux ! - par Erwann Tison - juin 2018
https://www.lesechos.fr/idees-debats/cercle/0301822493026-travail-acceptons-le-remplacement-des-humains-par-les-robots-2184421.php

La machine en 2018 aide l’homme à résoudre des situations pénibles ou à explorer des situations complexes difficiles à résoudre pour l’être humain.

L’intelligence artificielle arrive dans une ère disruptive…

... avec le déploiement de la blockchain, des cryptomonnaies, des objets connecté,... et des protocoles d’accès à ces systèmes de plus en plus sophistiqués comme celui de la reconnaissance faciale.

“D'après Brad Smith, président de Microsoft, il est primordial de poser des limites aux technologies de reconnaissance faciale. Sans quoi, le futur pourrait prendre des allures dignes des œuvres d'anticipation les plus alarmantes.

Comment encourager le progrès technologique sans entraver nos libertés individuelles ? C'est en somme la question qu'a posée Brad Smith, président et directeur du département juridique de Microsoft, lors du Web Summit à Lisbonne. Son inquiétude concerne principalement la reconnaissance faciale...

Empêcher l'apparition d'un « Big Brother » dans la réalité

1984 est un roman de George Orwell paru en 1949. Il dépeint une société britannique où la liberté d'expression a totalement disparu et où tous les individus sont sous la surveillance de « Big Brother ». Brad Smith craint donc de voir un scénario similaire se produire à cause d'un recours démesuré à des technologies comme la reconnaissance faciale”.

Sources : 2024 risque de ressembler au livre 1984 d'Orwell, selon le président de Microsoft - par Bastien Contreras - novembre 2018
https://www.clubic.com/pro/technologie-et-politique/actualite-847171-2024-risque-ressembler-livre-1984-president-microsoft.html

Si vous pensez que c'est pour demain, vous vous trompez. C'est déjà commencé..

“Alexa est en fait la voix de l’enceinte intelligente “Echo”, sortie en 2015 aux États-Unis. Produite par Amazon, elle est arrivée sur le marché français en juin dernier, mais elle fait déjà beaucoup parler… Mais en plus de ces capacités extraordinaires – mieux vaut le savoir -, Alexa est aussi là pour… vous espionner ! Oui, mademoiselle entend absolument tout ce que vous dîtes, y compris lorsque vous ne vous adressez pas à elle.

Elle enregistre tout et le communique aussitôt aux serveurs géants d’Amazon qui, eux, se font un plaisir de les archiver.

Bien sûr, il n’est jamais agréable de se sentir ainsi surveillé, fliqué en permanence. Mais cette tendance contemporaine n’a peut-être pas que des mauvais côtés…

En effet, Alexa serait peut-être aujourd’hui en mesure de résoudre une affaire policière ! Si si ! Il s’agit d’un double-meurtre assez terrifiant qui s’est déroulé l’année dernière aux USA. Si elle parvient à lever ce mystère, Alexa deviendrait ainsi, en quelques sortes, le premier Sherlock Holmes électronique de l’Histoire”.

Sources : Une enceinte électronique sur le point de résoudre un double-meurtre ? - par  Maxime-M - novembre 2018
https://www.lenouveaudetective.com/usa-enquete-double-meurtre-enceinte-echo-alexa-amazon/

Un autre volet orwellien prend sa place dans nos vies quotidiennes.

En 1949 sortait un roman écrit par Georges Orwell : 1984

Ce roman classé alors dans la catégorie science-fiction, peut aujourd’hui être classé dans les romans prospectifs du 21ème siècle.

“Au loin, un hélicoptère glissa entre les toits, plana un moment, telle une mouche bleue, puis repartit comme une flèche, dans un vol courbe. C’était une patrouille qui venait mettre le nez aux fenêtres des gens. Mais les patrouilles n’avaient pas d’importance. Seule comptait la Police de la Pensée.

Derrière Winston, la voix du télécran continuait à débiter des renseignements sur la fonte et sur le dépassement des prévisions pour le neuvième plan triennal. Le télécran recevait et transmettait simultanément. Il captait tous les sons émis par Winston au-dessus d’un chuchotement très bas. De plus, tant que Winston demeurait dans le champ de vision de la plaque de métal, il pouvait être vu aussi bien qu’entendu. Naturellement, il n’y avait pas moyen de savoir si, à un moment donné, on était surveillé. Combien de fois, et suivant quel plan, la Police de la Pensée se branchait-elle sur une ligne individuelle quelconque, personne ne pouvait le savoir. On pouvait même imaginer qu’elle surveillait tout le monde, constamment. Mais de toute façon, elle pouvait mettre une prise sur votre ligne chaque fois qu’elle le désirait. On devait vivre, on vivait, car l’habitude devient instinct, en admettant que tout son émis était entendu et que, sauf dans l’obscurité, tout mouvement était perçu”.

Source : 1984, Georges Orwell - 1949

Là, où nous nous serions insurgés de part notre droit à la vie privé, en 2004, d’être surveillé en permanence, cette même surveillance effective en 2018 est classée dans le bien public .

“Chine: après la reconnaissance faciale, la reconnaissance de la démarche

“A Pékin et Shanghai, les autorités chinoises ont commencé à déployer une solution de reconnaissance automatique de démarche, pour venir en renfort de la reconnaissance faciale.

Pour affiner l'identification automatique des personnes présentes sur leurs enregistrements vidéo, les autorités chinoises font appel à la reconnaissance d'un nouveau signe distinctif : la démarche. Les forces de police de Pékin et Shanghai utilisent déjà cette nouvelle technologie biométrique, d’après l’agence Associated Press.

Selon le PDG de Watrix, la société à l'origine de cette technologie, la solution est en mesure d'identifier des individus dans un rayon de 50 mètres, y compris de dos ou avec le visage masqué.  "L’analyse de la démarche ne peut être trompée par une simple boiterie, le fait de marcher pieds nus ou un repli sur soi, car nous analysons toutes les caractéristiques d’un corps entier", déclare-t-il ainsi auprès d'AP. Il ne précise pas de quelle manière les bases de données comprenant les démarches des personnes à identifier sont constituées”.

Sources : Chine: après la reconnaissance faciale, la reconnaissance de la démarche - novembre 2018
https://www.bfmtv.com/tech/chine-apres-la-reconnaissance-faciale-la-reconnaissance-de-la-demarche-1561160.html

“Depuis huit mois, la police chinoise de 16 provinces est équipée de lunettes à reconnaissance faciale. Un premier bond en avant vers une surveillance absolue du pays. Cette fois, Big Brother est vraiment là.

La reconnaissance faciale a un paradis : la Chine. Les visages et les données biométriques de ses quelque 1,4 milliard d’habitants constitueront bientôt la plus importante base identitaire au monde. Si la Chine est pionnière en ce domaine, c’est parce que le régime en a fait une priorité politique”.

Sources : Quand la Chine identifiera 1,4 milliard d’habitants en une seconde - par Marianne de Beer
https://www.parismatch.com/Vivre/High-Tech/Quand-la-Chine-identifiera-1-4-milliard-d-habitants-en-une-seconde-1589596

Mais, la surveillance ne se cantonne pas aux États, c’est aussi le jeux des pairs sur internet qui se surveillent entre-eux. Mais que c'est-il passé pour en arriver là ?

2001, année du basculement des liberté individuelles remplacée par l’impérieuse sécurité mondiale.

En 2001, avec les attentats du 11 septembre, la face du monde a changé ainsi que les protocoles de sécurité mondiale et de cybersécurité. Caméras de surveillance, passeports biométriques, contrôle des activités dans la rue, sur les réseaux sociaux, filtrage des messages, des conversations vidéo… C’est notre quotidien et tout le monde a accepté suite aux multiples attentats et à ses terroristes difficilement attrapables.

“Vidéosurveillance et données de connexion

La loi relative à la lutte contre le terrorisme, votée en 2006 sous l’impulsion de Nicolas Sarkozy, ministre de l’intérieur de l’époque, ouvre des portes légales aux techniques de surveillance modernes pour les services de renseignement.

Pour la première fois en France, la loi oblige les opérateurs télécoms, les fournisseurs d’accès ou tout autre organisme proposant un accès à Internet à conserver les métadonnées de connexion (les « logs ») pendant un an. L’accès à ces données, autrefois sous le contrôle d’un juge, est désormais soumis à l’autorisation d’un haut fonctionnaire de police.

La surveillance de la mobilité des individus est accrue au travers de deux mesures :

  • l’obligation pour les compagnies aériennes, ferroviaires et maritimes de communiquer les informations qu’elles détiennent sur les passagers internationaux (hors UE) ;
  • les prises automatisées de clichés des occupants de véhicules sur tout le territoire, conservés huit jours et pouvant être recoupés avec le fichier des véhicules volés.

La loi a également renforcé la vidéosurveillance en autorisant les préfets à installer des caméras aux abords immédiats des bâtiments publics ou ouverts au public”.

Source : Comment la législation antiterroriste s’est durcie en trente ans - par Gary Dagorn - novembre 2015
https://www.lemonde.fr/les-decodeurs/article/2015/11/26/comment-la-legislation-antiterroriste-s-est-durcie-en-trente-ans_4818000_4355770.html

Si en 2006 cette loi fut polémique, en 2018, elle est devenue naturelle. De la loi française à la réalité chinoise, 4 ans plus tard, la Chine va bien au delà et invente la surveillance sociale par le système et par les pairs.

Huxley plus visionnaire qu'Orwell

"En fait, notre société est plus proche de celle qu'Aldous Huxley avait imaginé dans Le Meilleur des mondes. Dans cette contre-utopie publiée en 1932, il dépeignait, écrivions-nous en 2011, «les contours d’une dictature parfaite. Des individus conditionnés auraient l’illusion d’être libres et épanouis, mais seraient en réalité placés dans un système de soumission via une consommation et une distraction excessives». Dans le Guardian, John Naughton démontrait, en 2013, pourquoi Huxley était «le vrai visionnaire»:

«Nous avons oublié l'intuition d'Huxley. Nous n'avons pas réussi à nous rendre compte que notre emballement pour les jouets élégants produits par les Apple et Samsung –combiné à notre appétit apparemment insatiable pour Facebook, Google et d'autres entreprises qui fournissent des services "gratuits" en échange de détails intimes de notre vie quotidienne– pourrait bel et bien se révéler comme étant un narcotique aussi puissant que le soma l'était pour les habitants du Meilleur des mondes. [...] Ayons une pensée pour l'écrivain qui a perçu l'avenir dans lequel nous apprenons à aimer nos servitudes numériques.»

L'essayiste Neil Postman remarquait déjà, dès 1984, que c'était peut-être Huxley, et non Orwell, qui avait le mieux réussi à anticiper le futur. Dans la préface de Se distraire jusqu'à en mourir, il tenait à faire la différence entre les deux auteurs :

«Orwell prévient que nous serons bientôt submergés par une oppression imposée. Mais chez Huxley, il n'y pas besoin de Big Brother pour priver les gens de leur autonomie, de leur maturité et de l'histoire. De la façon dont il le voyait, les gens finiront par aimer d'eux-mêmes leur oppression et adorer les technologies qui annihilent leurs capacités à penser.»"

Sources : Notre société est plus proche du «Meilleur des Mondes» que de «1984» - par Grégor Brandy  - fevrier 2015
http://www.slate.fr/story/97831/orwell-huxley-1984-meilleur-mondes

C'est intéressant de voir que deux auteurs de la première partie du 20ème siècle ont imaginé le monde d'aujourd'hui chacun à leur façon et avec une grande justesse. Orwell est juste dans sa vision de la technologie de surveillance et Huxley est juste dans la manière dont la société interéagit avec les réseaux sociaux.

Big Brother en vrai

“Dans un épisode de la série Black Mirror, les citoyens utilisent une application pour se noter les uns les autres (commerçants, voisins, amis, etc.). En fonction des notes que l’on totalise, on peut accéder à tel ou tel service, habiter à tel ou tel endroit, etc. Ce monde parfait est en préparation en Chine. L’État va examiner le comportement des citoyens sur les réseaux sociaux, et aussi dans la vie réelle, pour attribuer une note à chacun, un "crédit social". Si vous dites du bien du gouvernement sur internet, vous gagnez des points. Si vous soutenez des opinions dissidentes ou que vous traversez la rue au mauvais moment sous l’œil d’une caméra de surveillance, vous en perdez.

Ce système de régulation sociale est basé sur l’exploitation des données numériques sous toutes leurs formes. Des informations sont également collectées sur des sites marchands, des services de partage de vélos ou via l’application WeChat qui est très utilisée en Chine. À l’arrivée, un bon score permet de travailler dans une bonne entreprise, de voyager en première classe ou d’inscrire ses enfants en école privée. Le but est d’assurer la stabilité et la sécurité en détectant éventuellement les individus dangereux. C’est aussi un incroyable système numérique totalitaire. C’est le "big data" au service de la surveillance sociale et politique.

Le projet de crédit social a été annoncé en 2014. Il devrait être opérationnel en 2020. D’ici là, le gouvernement Chinois vient d’annoncer qu’un premier test grandeur nature sera effectué à partir du 1er mai dans les transports. Les individus  "mal notés" pourront se voir interdire l’accès aux trains et aux avions ou du moins en première classe. Pour l’instant, il faut encore uniformiser les données afin de les rendre interopérables. Il faut aussi s’assurer que ces données seront authentiques et ne pourront pas être falsifiées. Les Chinos peuvent télécharger des applications permettent de connaître au fur et à mesure son "crédit social".”

Sources : Nouveau monde. La Chine va trier ses citoyens en fonction de leurs comportements numériques - par Jerôme Colombain - mars 2018
https:/www.francetvinfo.fr/replay-radio/nouveau-monde/nouveau-monde-la-chine-va-trier-ses-citoyens-en-fonction-de-leurs-comportements-numeriques_2640398.html

Aliénation volontaire et tyrannies de la visibilité

“Il n’est en effet plus possible de concevoir la surveillance agissant du haut vers le bas par l’intermédiaire d’institutions disciplinaires. Celle-ci s’horizontalise et se généralise au-delà des institutions affaiblies. On est confronté à ce que Fabien Granjon appelle une société de « participatory surveillance, de peer-to-peer monitoring ou d’interpersonal watching », « où l’individu n’est plus nécessairement et seulement un sujet surveillé et inquiet de cette surveillance, mais peut aussi tenir le rôle d’un surveilleur curieux (intrusif) […], de ses pairs, voire de sa propre personne » (2011, p. 78).

Et il est d’autant plus soumis à une surveillance qu’il expose beaucoup de soi en ligne. Ces « conduites volontaires visant à être vu, écouté, répertorié, cité et si possible adulé » (Jauréguiberry, 2011, p. 132) relèvent dès lors non pas de la « contrainte » mais, dans les pas de La Boétie (1995), de la « servitude volontaire à s’exposer ». Internet « permet le décentrement de la surveillance par dissémination des points d’observation, ce qui transforme la société en un espace ouvert à l’observation permanente et mutuelle » (Laval, 2012, p. 65).

En effet, ce panoptisme horizontal sur les réseaux sociaux est d’autant plus puissant qu’il est lié non pas à une volonté de punir et de redresser les torts de l’individu mauvais citoyen et calculateur se sentant épié par l’œil fixe du pouvoir, mais à la quête de visibilité/célébrité. Il y a un renforcement de l’accent mis sur le contrôle plutôt que sur la discipline. L’analyse prédictive – prévoyance et anticipation – prime sur l’impératif de surveiller et punir (Lyon, 2014). Ainsi, « nous sommes nombreux à prendre part à ce nouveau genre de contrôle sur une base volontaire, souvent sans être conscients de son ampleur » (Christensen, 2010, p. 53).

Cette surveillance tous-tous passe ainsi par la nécessité de rendre des comptes sur ce que nous faisons et où nous nous trouvons. Ou bien encore par la confession d’une partie importante de nos expériences privées sur notre profil Facebook, qui peuvent être scrutées par des (plus ou moins) proches et qui peuvent tourner en notre désavantage en cas de conflits interpersonnels. Des parties de nous nous échappent et peu importe si nous y faisions bonne, mauvaise ou piètre figure.

Dès lors, si la surveillance de tous par tous peut se comprendre comme la dynamique démocratique poussée à son paroxysme, elle peut s’apparenter également à de nouvelles « tyrannies de la visibilité » (Aubert et Haroche, 2011) poussant au conformisme sous prétexte d’hétérogénéité généralisée. À force de trop vouloir être soi-même indépendamment des masques sociaux et des médiations symboliques, l’individuation réticulaire peut aboutir paradoxalement à imposer des normes de conduites validées par ses pairs en ligne. Or, puisqu’il y a de moins en moins d’écart entre la face sociale et le « moi », la mise à distance vis-à-vis de son propre rôle s’avère plus difficile, et le souci de garder la face un enjeu de tous les instants, poussant parfois à des formes intenses de conformisme. Un « contrôle social » s’exerce à l’encontre des profils proposés”.

Sources : Le panoptisme horizontal ou le panoptique inversé - par Simon BOREL - Tic & société - 2016
https://journals.openedition.org/ticetsociete/2029

Ainsi la surveillance structurelle s’étend à la surveillance entre humains à travers une hypervisibilité, dont le contrepoint à payer est l’extension du conformisme social et donc de la paupérisation de la variété des profils sur les réseaux sociaux. Par extension, on peut se demander si les phénomènes de harcèlement sur la toile ne sont pas une formalisation atypique de cette surveillance normalisante. C’est la même chose quand dans le livre d’Orwell, le personnage Winston tourne le dos à la TV pour garder un peu de liberté individuelle tout en restant dans la norme sociale. C’est une sorte d’autocensure pour ne pas avoir d’ennuis avec les autorités.

Pour analyser toute ces données, l’intelligence artificielle est alors indispensable à la sécurité publique. Comment va-t-elle s’y prendre ? Selon quels critères ?

“L’automaticité de la surveillance : le comportement humain inventorié

Le présent ouvrage souhaite mettre l’accent sur une problématique inédite, qui loin de constituer un simple aménagement de ces technologies de surveillance, peut contribuer à reformuler l’interaction entre les questions de libertés publiques et d’innovation technologique. Le point de départ réside dans l’élaboration d’un dispositif de surveillance par caméra vidéo qui permettrait la détection automatique de comportements anormaux.

La présente analyse part d’une recherche conduite par Jacques Boonaert, Yassine Benabbas, Nacim Ihaddadene et Chaabane Djeraba. Intitulée CAnADA (Comportements ANormaux : Analyse, Détection, Alerte), la recherche a comme objectif de fournir une approche globalisée permettant la détection et la gestion en « temps réel » de comportements propres à compromettre la sécurité des biens et des personnes dans des lieux caractérisés par un important flux d’individus (centres commerciaux, gares, etc.) : mouvement cyclique d’un individu, position statique prolongée d’un individu, vitesse de déplacement importante, éventuellement une orientation du regard non conforme au déplacement, etc. Les données exploitées à cet effet sont issues de sources variées (caméras de surveillance, vidéos enregistrées, bases de données, etc.), bien que l’essentiel de l’information exploitée dans le cadre de ce projet soit issu de la vidéo.

À partir de ces différentes informations disponibles, il s’agira de classifier les comportements d’individus et de groupes d’individus, comportements qui seront ensuite interprétés en terme de « menace », ceci afin de pouvoir acheminer l’information pertinente aux acteurs les plus à même de rendre à la situation son caractère normal, ceci par le biais des canaux de retour les plus adaptés. La prise en compte de plusieurs personnes présentes simultanément dans les champs de vision des caméras, un accroissement de la robustesse des algorithmes vis-à-vis des phénomènes d’occultation, l’exploitation d’un réseau de caméras hétérogènes, la mise en œuvre de techniques de calibrage adaptées au domaine d’application et aux « contraintes métiers » (simplicité de mise en œuvre, calibrage « en ligne », etc.). Du point de vue informatique, ce projet nécessite l’amélioration des techniques d’analyse de vidéos pour tenir compte des conditions très exigeantes (principalement le nombre de personnes à traiter, la nature des éléments à détecter, le caractère temps réel à garantir, les nombreux phénomènes perturbateurs)”.

Sources : Introduction. Traquer le comportement anormal. Entre considérations de recherches et applications sociales - par Jean-Jacques Lavenue et Bruno Villalba - 2011 https://books.openedition.org/septentrion/16064?lang=fr

En 2011, la technologie n’est pas encore mature pour exécuter pleinement ces tâches de détection de comportements anormaux. Mais, l’accélération des technologies fait de celle-ci une réalité sept ans plus tard dans certaines parties du globe comme la Chine.

La maléabilité des affects

Les modèles comportementaux d’aujourd’hui sont encore balbutiants et posent la question de la place de l’individus sur les réseaux sociaux. Quand un être humain se sent mal d’être différent, quand le modèle est l’extraversion de soi pour un introverti par exemple, alors ce modèle devient une dictature pour celui qui le subit.

“Et si les réseaux peuvent constituer une possibilité de reconnaissance accrue des « facettes » de soi, ils peuvent tout aussi bien se retourner contre soi dans une « auto-réification », où les « affects », les « envies », les « buts » apparaissent « comme des objets malléables que l’on peut mobiliser à des fins utilitaires » (Granjon, 2011, p. 81).

Pour S . Tisseron, on serait ainsi « passé en quelques dizaines d’années d’une société centrée sur le refoulement » – la « culpabilité » du sujet névrosé moderne – à « une société centrée sur le clivage » (Belhomme, 2010, p. 38) – la « honte » de l’individu réticulaire exposé et visible. La « nécessité de se rendre visible », la « médiatisation permanente », l’injonction à « une production continue et illimitée de soi » qu’impliquent les normes sociales actuelles couplées aux médias et aux technologies numériques sont autant de conditions indispensables pour exister socialement. Elles sont aussi bien vectrices d’émancipation (décentrement des appartenances et des identités oppressives) que d’aliénation de la personne (désubjectivation et désymbolisation des individus liquides).

D’autant plus que l’individu réticulaire est parfois son propre despote quand il livre, sur une base quasi volontaire, des myriades de données personnelles dont les grandes firmes du numérique et les États se servent”.

CF : Le panoptisme horizontal ou le panoptique inversé

L’intelligence artificielle n’est pas seulement en compétition avec l’humain, par les jeux d’algorithmes, elle peut en influencer les comportements.

“La vie privée, l'influence de l'IA sur nos décisions

À son tour, ce rapport s'inquiète des données personnelles mises à disposition des intelligences artificielles et des conclusions qu'elles peuvent en tirer sur les individus.

Les réseaux sociaux et les moteurs de recherches sont directement visés : « L'IA est en mesure [...] d'influencer les choix des individus dans de nombreux domaines (des décisions commerciales aux élections et aux référendums) ». Pour bien préciser les choses et ne laisser aucune place au doute, le rapport indique qu'il « s’agit d’une menace pour une démocratie ouverte et équitable ».

Le comité s'attarde plus particulièrement sur le cas des enfants, présenté comme étant un groupe « particulièrement vulnérable ». Il exprime en effet « sa préoccupation face aux applications d’IA qui visent explicitement à influencer le comportement et les souhaits des enfants ».

Pour ne pas se retrouver dans cette situation, il convient donc « d’éviter que l’application de l’IA aux données personnelles ne restreigne la liberté réelle ou perçue des individus ». Bon point, la protection des données personnelles lors d'une transmission par voie numérique sera prochainement renforcée par le règlement général de l'UE".

Sources : Un rapport européen épingle les risques de l’intelligence artificielle - par Sébastien Gavois  - juin 2017
https://www.nextinpact.com/news/104319-un-rapport-europeen-epingle-risques-lintelligence-artificielle.htm

Comment positionner ses idées dans un contexte normalisant où la pensée différente peut être classée comme déviante par l'intelligence artificielle reine de ses décisions basées sur des algorithmes ? On ne parle pas encore aujourd'hui de recours contre les décisions de la machine, mais, cela ne saurait tarder. Et, nous serons face à la question de la responsabilité de l'intelligence artificielle.

Des tribunaux des animaux à ceux des machines

Rappelons-nous les temps anciens, quand au Moyen-Âge les animaux étaient responsables de leurs actes. Ce qui parait aussi fou aujourd'hui que la mise en examen d'une intelligence artificielle x ou y. Pour mettre en examen un sujet, il faut lui reconnaître une intelligence autonome et une liberté de choix dans ses décisions. Il y a deux typologies de jugements : celui des gros bien définis comme la technologie et celui des petits qui créent les effets de masse comme les réseaux sociaux. 

"Les plaintes à l'encontre des petits animaux pour l'infestation ou la destruction des récoltes étaient orchestrées pour que les gens aient moins de scrupules à les exterminer

La source la plus détaillée des études de cas (qu'ils soient réels ou imaginaires) que nous possédons pour la pratique médiévale (entre le XIIIe et le XVIe siècles) des procès contre les animaux est le traité d'E.P. Evan sur le sujet, Poursuites criminelles et peine capitale des animaux, publié en 1906. Evans y distingue deux types de procès d'animaux:

«Il existe une distinction technique très fine entre les Thierstrafen et lesThierprocesse: les premiers concernent les peines capitales infligées par des tribunaux laïques à des cochons, des vaches, des chevaux et tout autre animal domestique comme punition pour homicide; les derniers regroupent les procédures judiciaires entamées par des tribunaux ecclésiastiques à l'encontre des rats, des souris, des sauterelles, des charançons et des autres nuisibles pour les empêcher de dévorer les récoltes et pour les bannir des vergers, des vignes et des champs cultivés grâce à l'exorcisme et l'excommunication.»

Autrement dit, la plupart des grands animaux étaient poursuivis pour meurtre et finissaient exécutés ou exilés, alors que les petits animaux nuisibles étaient le plus souvent excommuniés ou dénoncés par un tribunal religieux. En revanche, tous semblent être passés un jour devant un juge".

Sources : L'étrange histoire des procès d'animaux au Moyen Âge - par Eric Grundhauser - septembre 2015
http://www.slate.fr/story/105797/proces-animaux-moyen-age-mythe-realite

N'oublions pas que monde fonctionne selon des modèles connus et n'est qu'un éternel recommencement. Il est intéressant quelque fois d'aller chercher des comparaisons dans des contextes anciens non liés, afin d'en extraire des mécanismes universels tels pour la machine qui aujourd'hui à un statut proche de l'esclave ou de l'animal. Mais, la ruspture de paradigme ici, c'est que nous donnons la gouvernance à notre esclave, faut-il en avoir peur ?

“Un duel sans précédent a opposé pour la première fois, à San Francisco, une machine à des champions de débats. Doit-on avoir peur de l’intelligence artificielle ?

À l’IBM Watson Center, situé dans le quartier SoMa (ou South Market) au cœur de San Francisco, en Californie, un combat sans précédent dans l’histoire de l’intelligence artificielle a vu s’opposer le 18 juin dernier l’homme à une machine. Devant un public d’une cinquantaine de journalistes et un universitaire de l’Université de Dundee, en Écosse, le professeur Chris Reed, se sont affrontés deux champions ou spécialistes de débats en direct d’un côté et le système d’intelligence artificielle IBM Project Debater de l’autre.

La compétition s’articulait en deux débats. Les deux parties impliquées dans chaque manche avaient quatre minutes pour exposer leurs idées, quatre autres pour répondre aux arguments adverses et enfin deux autres minutes pour conclure.  Dans le premier débat, le système de l’AI avait face à lui le champion israélien de débat en 2016, Noa Ovadia, pour discuter du thème « Nous devrions subventionner l’exploration spatiale ». Au cours de la deuxième et dernière manche, Project Debater a affronté un autre expert israélien, Dan Zafrir, sur le thème « Nous devrions accroître l’utilisation de la télémédecine ».

Un sondage réalisé auprès du public, à la fin des débats, a donné la victoire à la contrepartie humaine pour la première manche et à la machine pour la seconde. Selon les téléspectateurs, Project Debater était meilleur que ses adversaires humains pour la richesse des informations fournies mais moins bon dans la présentation de ses idées”.

Sources : Quand l’intelligence artificielle oppose l’homme à la machine - par Paul De Maeyer - juillet 2018
https://fr.aleteia.org/2018/07/21/quand-lintelligence-artificielle-oppose-lhomme-a-la-machine/

L’homme est en compétition avec la machine qui est son esclave et qui est en même l’intelligence artificielle qui la gouverne. Cette intelligence normative est en train de classer la société selon des modèles predictifs basés sur la normalisation qui devient le modèle. Si l’humain se normalise alors il perdra tout intérêt sur la machine et quel sera son utilité dans la société de demain à part le fait d'appartenir à l'animation sociale ambiante ?

C’est aussi le challenge des écoles d’aller contre ce courant

“L'intelligence artificielle est plus compétente que l'humain en calcul, en logique ou en organisation. Nous devons donc former les étudiants à cultiver leur imagination. De sorte à les rendre plus singuliers.”.

Sources : Face à l'intelligence artificielle, développons notre créativité  - par Xavier Pavie / professeur à l'Essec - Juillet 2018
https://www.lesechos.fr/idees-debats/cercle/0301983773475-face-a-lintelligence-artificielle-developpons-notre-creativite-2192459.phpr

Comment relever ce défi quand le mouvement de l'ultra-transparence va effacer les atypismes à long terme ? Comment penser différemment et s'en sentir valorisé lorsque nos gestes sont épiés par la cybersécurité ? Comment rester maîtres de nos pensées ?

Il se produit inévitablement une auto-censure pour rentrer dans la norme. La créativité hors de la norme, les gens différents pourraient souffrir de cette normalisation à outrance. Il est important de garder en tête que la diversité humaine est sa richesse et son avenir. Si la normalisation est de la nature de l’intelligence artificielle, la créativité est encore de la nature de l’intelligence humaine. Mettre tout dans les mains de la machine est une facilité qui peut à terme appauvrir la variété du genre humain et sa capacité à vivre dans la société.

“Une société où l'unique référence est l'individu intégré par son acte de consommation ? C'est la "société liquide" selon le philosophe Zygmunt Bauman.

Ses livres s’interrogent sur les "horizons de sens" possibles dans un monde marqué par des crises radicales. Il invite à "se révolter par la créativité, l’écriture, l’engagement au plus près du monde". Zygmunt Bauman a notamment théorisé la "société liquide", un concept qui se penche sur le flux incessant de la mobilité et de la vitesse, caractéristique de notre modernité. Zygmunt Bauman décrit une société "en voie de liquéfaction avancée", où les relations humaines deviennent flexibles plutôt que durables, tant au plan personnel qu’au plan collectif. Dans notre "société liquide", « on évite la corvée de la rupture (rompre ou se faire licencier par SMS. Pour Zygmunt Bauman, prendre soin de l’homme, c’est prendre soin de sa créativité, de sa parole vive…”  

Sources : Nous vivons dans une "société liquide" - novembre 2017
https://www.franceculture.fr/conferences/nous-vivons-dans-une-societe-liquide

 

Quand un individu est pris dans une gangue sociale inextricable où même sa volontée est modifiée par son contexte, alors on est face à de la manipulation de masse. Que ce soit pour faire tourner l’économie ou pour protéger les individus, est-ce bien éthique de continuer dans ce sens ?  L’avenir de l’homme, c’est l’homme. Cela paraît banal, mais c’est une notion centrale à garder en tête face aux mutations technologiques normalisantes en cours dans nos société.

Illustration : Andrew R. Whalley - Visual Hunt / CC BY-NC

Avez-vous apprécié cette page?

Voir plus d'articles de cet auteur

Accédez à des services exclusifs gratuitement

Inscrivez-vous et recevez des infolettres sur :

De plus, indexez vos ressources préférées dans vos propres dossiers et retrouvez votre historique de consultation.

M’abonner
Je suis déja abonné