Lors d’une conférence de deux jours sur « Intelligence artificielle et justice », organisée à la Cour suprême espagnole par l’Asociación de Letrados del Tribunal Supremo (ALTS), le juge Manuel Marchena a averti que l’IA change rapidement la façon dont les sociétés perçoivent la vérité et l’équité. S’adressant à un public à Madrid, il a souligné les défis juridiques et éthiques posés par les deepfakes, le profilage algorithmique et la concentration du pouvoir numérique – des défis auxquels, selon lui, l’Europe doit faire face de toute urgence.
Le juge de la Cour suprême espagnole, Manuel Marchena, a averti que l’intelligence artificielle (IA), les deepfakes et l’économie des données transforment la façon dont les sociétés comprennent la vérité, la démocratie et la justice. S’adressant à des étudiants et à des professionnels, sa conférence a exploré les profonds changements juridiques et éthiques déclenchés par le développement technologique rapide.
Pourquoi les plateformes « gratuites » ne sont pas vraiment gratuites
Marchena a commencé par poser une question simple : si des plateformes comme Twitter (maintenant X), WhatsApp ou Google facturaient un euro par an, les gens paieraient-ils ? Très probablement oui, argumenta-t-il. Et même avec dix euros, des millions de personnes continueraient à utiliser ces services.
Pourtant, ces entreprises – certaines valorisées en dizaines ou centaines de milliards – ne facturent rien. Pour Marchena, cela révèle que leur véritable modèle économique est données personnellessouvent décrit comme « le pétrole du 21e siècle ». Ces données, a-t-il déclaré, ont une valeur géopolitique et confèrent une énorme influence aux entreprises qui les contrôlent.
Une nouvelle classe numérique : les « non-pertinents » de Harari
Citant l’historien Yuval Noah Harari, le juge a averti que les systèmes numériques pourraient créer une nouvelle catégorie sociale : les non pertinent. Il s’agit de personnes dont les données n’intéressent pas les algorithmes et dont les voix risquent d’être exclues des processus politiques et économiques.
Marchena a suggéré que cette fracture émergente est déjà visible dans la manière dont les algorithmes déterminent ce que les citoyens voient, lisent et discutent en ligne.
Deepfakes et le « droit de ne pas être trompé »
L’un des avertissements les plus forts de Marchena concernait la propagation des deepfakes générés par l’IA. Aujourd’hui, dit-il, il est possible de produire des vidéos ou des audios dans lesquels des personnalités publiques semblent dire des choses qu’elles n’ont jamais dites. Au moment où une personne prouve que le contenu est faux, les dommages politiques ou à la réputation peuvent déjà être irréversibles.
C’est pourquoi de nombreuses institutions, dont le Parlement européen, développent des outils réglementaires pour protéger ce que Marchena a appelé les pays émergents. « droit de ne pas être trompé ».
Il a lié ces préoccupations au nouveau Loi européenne sur l’intelligence artificiellequi restreint les systèmes d’IA à haut risque et interdit certaines pratiques de surveillance biométrique qui menacent les droits des citoyens.
Nanotechnologie, informatique quantique et société robotisée
Marchena a également fait référence aux idées publiées par Mustafa Suleyman, co-fondateur de DeepMind, décrivant des technologies qui transformeront radicalement la société : l’informatique quantique, la nanotechnologie et la robotique.
Il imaginait un avenir dans lequel les grands bâtiments pourraient être entièrement construits par des robots autonomes fonctionnant en continu, « 365 jours par an, 24 heures sur 24 », avec de profondes implications pour les marchés du travail et les services publics.
Kasparov vs Deep Blue : quand les machines dépassaient l’intuition humaine
Pour illustrer l’évolution des capacités des machines, le juge est revenu sur les matchs historiques entre Garry Kasparov et Deep Blue d’IBM. Alors qu’un maître d’échecs humain peut réfléchir à quelques coups d’avance, Deep Blue a évalué des centaines de millions de positions possibles par seconde.
Pour Marchena, ce moment symbolique compte toujours : il marque le moment où les machines ont indéniablement dépassé l’intuition humaine dans certains domaines.
Algorithmes prédictifs et fin de la vie privée ?
La conférence faisait également référence à une étude de l’Université de Cambridge montrant comment les algorithmes peuvent déduire des traits de personnalité et des préférences à partir de l’activité sur les réseaux sociaux. Avec suffisamment de données, le système peut mieux comprendre une personne que son partenaire – ou même ses parents.
Marchena a averti que cela soulève non seulement des risques pour la vie privée, mais aussi des questions sur l’autonomie : que se passe-t-il si les individus commencent à faire davantage confiance aux algorithmes qu’à leur propre jugement ?
IA, droits de l’homme et garanties juridiques
Le juge a reconnu que les experts ne sont pas d’accord : certains craignent les risques existentiels de l’IA, tandis que d’autres affirment que l’IA ne reproduira jamais la profondeur de l’intuition humaine ou du raisonnement moral.
Il a critiqué les idées transhumanistes d’« immortalité numérique », les décrivant comme des mythes technologiques qui confondent une copie numérique avec une véritable identité personnelle.
Ces préoccupations font écho aux récents débats européens sur les droits de l’homme et l’IA, y compris les questions explorées dans Reportage du European Times sur l’IA et les droits fondamentaux.
Responsabilité démocratique et protection contre les deepfakes
Les avertissements de Marchena s’alignent sur une tendance européenne plus large : de nouvelles règles contre les deepfakes, la manipulation d’images et les abus de données biométriques. Le Danemark, par exemple, a rédigé des lois pour protéger les citoyens contre les usurpations d’identité numériques ultraréalistes créées sans consentement.
Au niveau de l’UE, des enquêtes telles que Enquête de la Médiatrice de l’UE sur les normes en matière d’IA reflètent une préoccupation croissante concernant la responsabilité, la non-discrimination et la transparence algorithmique.
La justice à l’ère de l’algorithme
Selon Marchena, les systèmes judiciaires ne peuvent rester neutres ou passifs face à des changements aussi profonds. Les tribunaux traitent déjà des preuves numériques, des outils de police algorithmiques et des récits médiatiques qui évoluent plus rapidement que les procédures judiciaires.
Le défi, a-t-il soutenu, est de garantir transparence juridique, non-discrimination et recours efficaces pour ceux qui sont lésés par les décisions automatisées. La technologie doit rester responsable des principes démocratiques.
Un appel à la pensée critique
Marchena a conclu en exhortant le public – en particulier les jeunes générations – à maintenir une distance critique par rapport aux recommandations algorithmiques. L’avenir de la démocratie et de la justice, a-t-il suggéré, dépend de la capacité des citoyens à remettre en question les systèmes numériques plutôt que de s’y soumettre.
Illustration éditoriale (invite 16:9)
(Pour usage éditorial – non affiché dans le texte de l’article)
Invite d’image :
“Créez une illustration 16:9 réaliste de style éditorial représentant une salle d’audience européenne ou l’intérieur de la Cour suprême espagnole. La silhouette d’un juge fait face à une grande interface numérique translucide remplie de visages flous, de lignes de code et de modèles d’IA. De subtiles silhouettes de personnes utilisant des smartphones apparaissent en arrière-plan, symbolisant les médias sociaux et les deepfakes. Utilisez des tons bleus, gris et or clair, une douce profondeur de champ.
———-
First published in this link of The European Times.
