S'appuyant sur les travaux du philosophe Miguel Benassayag et de Lucien Castex, de l'Internet Society France, Claire Gerardin,
consultante en communication et spécialiste des nouvelles technologies,
revient dans cette tribune sur l'acceptation sociale de technologies
qui pourraient nous faire entrer dans une forme de dystopie sans même
qu'on s'en rende compte.
Un certain nombre d'observateurs considère que l’application StopCovid ne devrait plus susciter d’oppositions, tant les garanties sur la confidentialité des données collectées ont été apportées. Mais si ce risque est pour l’instant écarté, il n’en reste pas moins un autre, plus souterrain, qui concerne l’acceptation grandissante de ce type de technologie de surveillance, au dépend de nos droits et libertés fondamentales.
Cette application, comme les drones pour contrôler le confinement, et les caméras de surveillance pour vérifier le port du masque (aux États-Unis, il existe aussi des sonnettes faisant office de caméra de surveillance et des applications de signalement de manifestants enfreignant la loi), s’inscrit dans une course au progrès technologique. Les nouvelles technologies offrent en effet de formidables opportunités de progrès, tant qu’elles sont utilisées en tant qu’outils au service d’ambitions éthiques, justes ou encore égalitaires. Mais lorsqu’elles sont pensées en dehors de tout projet de société, elles doivent être questionnées. C’est-à-dire remises en perspectives.
De Galilée à la bombe atomique
L’idée de progrès, selon laquelle demain sera meilleur qu’aujourd’hui, n’a pas toujours existé. En effet, jusqu’au XVIIe siècle, on ne s’intéressait pas à l’avenir mais au passé. La boussole des actions était tournée vers la tradition (la religion et les penseurs antiques) afin de parvenir au bonheur. Le progrès naît avec la révolution scientifique, permise par l’émancipation de la raison individuelle. Ainsi Galilée fonde l’héliocentrisme, Francis Bacon la méthode empirique, ou encore René Descartes la géométrie analytique. Cette avancée rationaliste permet aux techniques de se développer, jusqu’à l’avènement de la révolution industrielle. Puis ce progrès évolue au XXe siècle, entre autres pour le pire. C’est-à-dire pour servir une pensée folle et mortifère qui consistera à inventer des techniques comme le gaz moutarde, la bombe atomique ou encore les camps de concentration. Là s’arrête le rêve cartésien selon lequel l’humain, lorsqu’il est guidé par sa raison, l’est uniquement pour son bien.
En rendant l’individu transparent et devinable, on efface ce qui constitue son essence : la complexité et la contradiction humaine
Dans La tyrannie des algorithmes (Textuel, 2019), Miguel Benasayag, philosophe et psychanalyste, chercheur en épistémologie, développe la théorie selon laquelle nous évoluerions désormais dans une période de « deuil post-rationalité » : après avoir perdu la foi dans le rationalisme humain, nous nous tournons désormais vers la foi dans le rationalisme de la machine. Puisqu’elle n’a pas de corps, donc pas de pulsions, de désirs, de contradictions et de complexités, c’est à elle que l’on peut désormais confier la tâche de raisonner. Il devient alors difficile pour l’humain de trouver sa place et son rôle dans ce monde algorithmique qui le fascine et l’impressionne. Car, puisque le corps est devenu un obstacle récalcitrant au progrès, il s’agit de l’incorporer au monde digital. On lui propose alors de déléguer certaines de ses responsabilités à la machine.
Aujourd’hui sa sécurité sanitaire. Et pour y parvenir, on collecte ses données et on y applique des algorithmes afin de le transformer en un ensemble d’unités d’informations, c’est-à-dire en « profil ». Et ce afin de le « fonctionnaliser », c’est-à-dire de le rendre prévisible. D’une logique de déduction, nous sommes donc passés à une logique d’induction. Mais en rendant ainsi l’individu transparent et devinable, on efface ce qui constitue son essence : la complexité et la contradiction humaine.
La transparence n'est pas une idée neuve
Cette idée de transparence n’est d’ailleurs pas nouvelle. Au XVIIIe siècle, le philosophe Jeremy Bentham invente un concept (qui à son époque sera mis en application notamment dans les prisons françaises d’Autun et de Niort) selon lequel devenir transparent, c’est devenir surveillable. Le panoptique de Bentham est une architecture carcérale où les surveillants peuvent voir sans être vus par les prisonniers qui, eux, se savent vus à tout moment.
Le sentiment de surveillance modifie les comportements. Se sachant surveillé, l’être humain adopte en effet une attitude performative.Michel Foucault analysera, entre autres, ce dispositif utilitariste dans son livre Surveiller et Punir (éditions Gallimard, février 1975). Il note que le sentiment de surveillance modifie les comportements. Se sachant surveillé, l’être humain adopte en effet une attitude performative. C’est-à-dire qu’il se comporte en fonction de normes de bonne conduite, et non en fonction de sa libre volonté. Sans s’en rendre compte, il fait le choix de la conformité normative. Prison ou pas, il en conclut que le contrôle est intériorisé par les individus.
Pour Lucien Castex, membre du Conseil d'Administration de l'Internet Society France, utiliser des solutions technologiques de surveillance de type StopCovid, drones ou caméras revient à accepter, sans s’en rendre compte, cette surveillance. Il y voit une dérive qui pourrait mener à une déstabilisation de l’équilibre entre la protection de la santé publique et celle des droits et libertés fondamentaux, qu’il nomme « dystopie par accident ».
La dystopie est « un récit de fiction dépeignant une société organisée de telle façon qu'il est impossible de lui échapper et dont les dirigeants peuvent exercer un pouvoir généralement sans contraintes sur des citoyens qui ne peuvent pas atteindre le bonheur » (Wikipédia). « Par accident » signifie que ce scénario se réaliserait sans même que l’on en ait conscience. C’est-à-dire que l’on accepterait, machinalement, d’être surveillé, et donc de perdre la liberté d’être et d’agir en dehors d’une conformité normative. À l’image de la fable de la grenouille placée dans une casserole remplie d’eau chauffée à rythme suffisamment lent pour qu’elle ne réalise pas qu’elle ne pourra plus en sortir.
N.D.L.R. Une belle synthèse de Claire Gérardin sur le sujet, je retiendrai en particulier le risque de nous tourner vers le rationalisme de la machine, après avoir perdu foi dans celui de l'humain, et lui donner en fait la capacité de raisonner à notre place. En fait, les machines sont et resteront (longtemps encore) pilotés par des humains, et d'ailleurs par de petits groupes d'humain qui ne sont pas toujours mus par le bien commun. C'est donc un risque pour la démocratie, et nous y sommes encore au tout début.
Concernant l'application STOPCOVID par exemple, je suis certain qu'elle aurait pu être un outil efficace en complément d'autres mesures (ça me semble un peu "foutu", nous verrons bien si la pandémie reprend force), elle nous emmène, petit à petit dans l'acceptation d'une surveillance de nos comportements intimes pour notre bien individuel et collectif. La surveillance, c'est déja fait pour nos gouts,achats, relations,... avec les GAFAM, pour la sécurité nationale avec nos communications, à suivre...
A moins d'un changement majeur, cette progression est inéluctable.
SUR LE MÊME SUJET :
> Covid-19 : le pire des technologies pour faire respecter la distanciation sociale
> Face au coronavirus, la Chine mobilise ses drones (et sa propagande)
> Covid-19 : à Cannes, des caméras repèrent automatiquement le port du masque
> « Tous surveillés », un documentaire glaçant sur la propagation des technologies de surveillance
> Vidéosurveillance, big data, notation citoyenne... La Chine, c'est « Black Mirror » ?
> « La prétendue "demande de vidéosurveillance" est une construction politique »
Image à la Une : Mike MacKenzie Flickr / CC BY 2.0