Big Tech, États et algorithmes
Fondamental :
Les Big Tech et les États utilisent exactement les mêmes méthodes pour des objectifs différents.
Massifier les données disponibles : captologie, nudges, absence de choix ;
Collecter les données : capteurs, trackeurs, apports humains, achat/vente, agrégation de multiples sources ;
Traiter les données : production automatisée d’hypothèses, prédictions comportementales ;
Actionner les prédictions : décisions automatisées, mises en oeuvre par exemple par la force ou le nudge.
Remarque :
Exemples de points à prendre en compte pour une analyse sous l’angle de la thèse TAC :
La croyance dans le potentiel des données pour comprendre le monde et prédire l’avenir ;
La croyance selon laquelle l’efficacité est une métrique pertinente ;
Le rôle des Big Tech dans la conception et la gestion des algorithmes ;
La façon d’entraîner les modèles et de récolter les données associées ;
Le rapport entre les humains et les décisions algorithmiques.
Indépendamment de si la société algorithmique remplit ses propres objectifs, elle est déployée à une échelle si massive qu’elle produit une société qui à son tour produira les décisions algorithmiques, et ainsi de suite, à plus forte raison car elle se nourrit directement des données de ce qu’elle participe à produire.
Définition : Gouvernementalité algorithmique
Antoinette Rouvroy, docteure en sciences juridiques, et Thomas Berns, professeur de philosophie politique, reprennent un concept de Foucault pour expliciter le monde que produit la société algorithmique. Gouverner avec des algorithmes, c’est :
[...] de façon très générale, un certain type de [façon de penser](a)normative et (a)politique fondé sur la collection, l’agrégation et l’analyse automatisée de grandes quantités de données, de façon à modéliser, anticiper et modifier préventivement des comportements possibles. [...] [Cette façon de penser] ne produit aucune subjectivation, elle contourne et évite les sujets humains réflexifs, elle se nourrit de données infra-individuelles insignifiantes en elles-mêmes, pour façonner des modélisations comportementales ou des profils supra-individuels, sans jamais en appeler au sujet, sans jamais l’appeler à rendre compte par lui-même de ce qu’il est ni de ce qu’il pourrait devenir.
Rouvroy et Berns, 2013[1], je souligne.
Fondamental : La société algorithmique induit un changement de nature
Prise dans son ensemble (Big Tech + États + industries), la généralisation des algorithmes crée un nouveau rapport au monde, qui dans son versant négatif induit notamment :
Des prédictions/décisions qui ne peuvent pas être expliquées ;
Des données qui peuvent être empoisonnées (parfois par boucle) ;
Une perte de capacité à détecter et corriger les biais ;
Des prophéties auto-réalisatrices ;
Des comportements dont la majeure partie est liée à des prédictions/décisions (sans avoir à en être conscient·e) ;
Une exclusion de ce qui n’est pas quantifiable ;
Un flou croissant sur la notion de données personnelles (en particulier une fois ingérées par les modèles) ;
Une dépendance massive au secteur privé et à ses intérêts propres, a fortiori aux Big Tech et à leurs tropes.
Attention : Externalités négatives
L’avènement d’une société algorithmique est intrinsèquement liée à des conséquences « extérieures » qu’on a pas traitées ici, et en particulier :
Sur le plan écologique : qu’est-il nécessaire de construire et de consommer ?
Sur le plan humain : qui est-il nécessaire de faire travailler, et où ?
Sur le plan géopolitique : quelle échelle et quelles interactions sont nécessaires ?
Sur le plan temporel : est-elle pérenne et dans quelles conditions ?
En fait, ces questions se résument en : dépend-elle d’un système économique, et si oui, de quelles externalités hérite-t-elle ?
Fondamental : Capitalisme de surveillance
C’est le nœud central de la société algorithmique, sans laquelle elle ne peut vraisemblablement pas exister.