24 mars 2022

Base Documentaire : Doctrine

 Référence complète : Augagneur, L.-M., Le traitement réputationnel par et sur les plateformes, in Frison-Roche, M.-A. (dir.), La juridictionnalisation de la Compliancesérie "Régulations & Compliance", Journal of Regulation & Compliance (JoRC) et Dalloz, à paraître. 

____

 Le résumé ci-dessous décrit un article qui fait suite à une intervention dans le colloque L'entreprise instituée Juge et Procureur d'elle-même par le Droit de la Compliance, coorganisé par le Journal of Regulation & Compliance (JoRC) et la Faculté de Droit Lyon 3. Ce colloque a été conçu par Marie-Anne Frison-Roche et Jean-Christophe Roda, codirecteurs scientifiques, et s'est déroulé à Lyon le 23 juin 2021.

Dans l'ouvrage, l'article sera publié dans le Titre I, consacré à  L'entreprise instituée Juge et Procureur d'elle-même par le Droit de la Compliance.

___

 Résumé de l'article (fait par l'auteur) : Les grandes plateformes se trouvent placées en arbitre de l’économie de la réputation (référencement, notoriété) dans laquelle elles agissent elles-mêmes. Malgré, le plus souvent, de faibles enjeux unitaires, la juridictionnalité de la réputation représente des enjeux agrégés importants. Les plateformes sont ainsi conduites à détecter et apprécier les manipulations de réputation (par les utilisateurs : SEO, faux avis, faux followers ; ou par les plateformes elles-mêmes comme l’a mis en lumière la décision Google Shopping rendue par la Commission Européenne en 2017) qui sont mises en œuvre à grande échelle avec des outils algorithmiques.

L’identification et le traitement des manipulations n’est elle-même possible qu’au moyen d’outils d’intelligence artificielle. Google procède ainsi à un mécanisme de déclassement automatisé des sites ne suivant pas ses lignes directrices, avec une possibilité de faire une demande de réexamen par une procédure très sommaire entièrement menée par un algorithme. De son côté, Tripadvisor utilise un algorithme de détection des faux avis à partir d’une « modélisation de la fraude pour relever des constantes électroniques indétectables par l’œil humain ». Elle ne procède à une enquête humaine que dans des cas limités.

Cette juridictionnalité de la réputation présente peu de caractères communs avec celle définie par la jurisprudence de la Cour de Justice (origine légale, procédure contradictoire, indépendance, application des règles de droit). Elle se caractérise, d’une part, par l’absence de transparence des règles et même d’existence des règles énoncées sous forme prédicative et appliquées par raisonnement déductif. S’y substitue un modèle inductif probabiliste par l’identification de comportements anormaux par rapport à des centroïdes. Cette approche pose bien sûr la problématique des biais statistiques. Plus fondamentalement, elle traduit une transition de la Rule of Law, non pas tant vers Code is Law (Laurence Lessig), mais à Data is Law, c’est-à-dire à une gouvernance des nombres (plutôt qe “par” les nombres). Elle revient en outre à une forme de juridictionnalité collective puisque la sanction provient d’une appréhension computationnelle des phénomènes de la multitude et non d’une appréciation individuelle. Enfin, elle apparaît particulièrement consubstantielle à la compliance puisqu’elle repose sur une démarche téléologique (la recherche d’une finalité plutôt que l’application de principes).

D’autre part, cette juridictionnalité se caractérise par la coopération homme-machine, que ce soit dans la prise de décision (ce qui pose le problème du biais d’automaticité) et dans la procédure contradictoire (ce qui pose notamment les problèmes de la discussion avec machine et de l’explicabilité de la réponse machine).

Jusqu’ici, l’encadrement de ces processus repose essentiellement sur les mécanismes de transparence, d’une exigence contradictoire limitée et de l’accessibilité de voies de recours. La Loi pour une République Numérique, le Règlement Platform-to-Business et la Directive Omnibus) ont ainsi posé des exigences sur les critères de classement sur les plateformes. La directive Omnibus exige par ailleurs que les professionnels garantissent que  les avis émanent de consommateurs par des mesures raisonnables et proportionnées. Quant au projet de Digital Services Act, il prévoit d’instaurer une transparence sur les règles, procédures et algorithmes de modération de contenus. Mais cette transparence est souvent en trompe-l’œil. De la même façon, les exigences d’une intervention humaine suffisante et du contradictoire apparaissent très limités dans le projet de texte.

Les formes les plus efficientes de cette juridictionnalité ressortent en définitive du rôle joué par les tiers dans une forme de résolution de litiges participative. Ainsi, par exemple, FakeSpot détecte les faux avis Tripadvisor, Sistrix établit un indice de ranking qui a permis d’établir les manipulations de l’algorithme de Google dans l’affaire Google Shopping en détectant les artefacts en fonction des modifications de l’algorithme. D’ailleurs, le projet de Digital Services Act envisage de reconnaître un statut spécifique aux signaleurs de confiance (trusted flaggers) qui identifient des contenus illégaux sur les plateformes.

Cette configuration juridictionnelle singulière (plateforme juge et partie, situations massives, systèmes algorithmiques de traitement des manipulations) amène ainsi à reconsidérer la grammaire du processus juridictionnel et de ses caractères. Si le droit est un langage (Alain Sériaux), elle en offre une nouvelle forme grammaticale qui serait celle de la voie moyenne (mésotès) décrite par Benevéniste. Entre la voie active et la voie passive, se trouve une voie dans laquelle le sujet effectue une action où il s’inclut lui-même. Or c’est bien le propre de cette juridictionnalité de la compliance que de poser des lois en s’y incluant soi-même (nomos tithestai). A cet égard, l’irruption de l’intelligence artificielle dans ce traitement juridictionnel témoigne incontestablement du renouvellement du langage du droit.

____

📝 Consulter une présentation générale du volume dans lequel l'article est publié.

 

30 août 2021

Compliance : sur le vif

   Un article du 3 mars 2021, Smile for the camera: the dark side of China's emotion-recognition tech, puis un article du 16 juin 2021, "Every smile you fake" - an AI emotion - recognition system can assess how "happy" China's workers are in the office décrit la façon dont une nouvelle technologie de reconnaissance émotionnelle est apte, à travers ce qui sera bientôt démodé d'appeler la "reconnaissance faciale", de distinguer un sourire qui traduit un état de satisfaction effective d'un sourire qui n'y correspond pas. Cela permet à l'employeur de mesurer l'adéquation de l'être humain à son travail.  Il est promis qu'il en sera fait usage d'une façon éthique, pour améliorer le bien-être au travail. Mais n'est-ce pas en soi que cette technologie est incompatible avec toute compensation par un accompagnement éthique ? 

____

La technologie élaborée par une entreprise technologique chinoise et acquise par d'autres entreprises chinoises ayant beaucoup d'employés, permet d'avoir de l'information sur l'état d'esprit effectif de la personne à travers et au-delà de ses mimiques faciales et de son comportement corporel.

La technologie de reconnaissance émotionnelle avait été mise au point pour assurer la sécurité, en luttant contre des personnes au projet hostile, les Autorités publiques l'utilisant par exemple dans les contrôles dans les aéroports pour détecter les desseins criminels que pourraient avoir certains passagers.

Il est affirmé ainsi que non pas qu'il s'agit de lutter contre quelques personnes malfaisantes ("dangerosité") pour protéger le groupe avant que l'acte ne soit commis ("défense sociale) mais qu'il s'agit d'aider l'ensemble des travailleurs. 

En effet non seulement l'usage qui en sera fait sera éthique, car en premier lieu les personnes qui travaillent pour ces entreprises chinoises à l'activité mondiale, comme Huawaï, le font librement et ont accepté le fonctionnement de ces outils d'intelligence artificielle (ce qui n'est pas le cas des personnes qui voyagent (le contrôle étant alors un sorte de mal nécessaire qu'ils n'ont pas à accepter, qui leur est imposé pour la sauvegarde du groupe), mais encore et surtout que la finalité est elle-même éthique : s'il s'avère que la personne ne se sent pas bien au travail, qu'elle n'y est pas heureuse, avant même qu'elle ait peut-être conscience, l'entreprise pourra lui venir en aide.

____

 

Prenons ce cas pratique du côté du Droit et imaginons que cela soit contesté devant un juge appliquant les principes du Droit occidental.

Est-ce que cela serait admissible ?

Non, et pour trois raisons.

1. Un "usage éthique" ne peut pas justifier un procédé en soi non-éthique

2. Les premières libertés sont négatives

3. Le "consentement" ne doit pas le seul principe régissant l'espace technologique et numérique

____

 

I. UN "USAGE ETHIQUE" NE PEUT JAMAIS LEGITIMER UN PROCEDE EN SOI NON-ETHIQUE

es procédés en eux-mêmes non-éthiques ne peuvent pas être rendus "admissibles" par un "usage éthique" qui en sera fait.

Ce principe a été rappelé notamment par Sylviane Agacinski en matière bioéthique : si l'on ne peut pas disposer de la personne d'autrui à travers une disposition de son corps qui rend sa personne même disponible (v. not. Agacinski, S., ➡️📗 Le tiers-corps. Réflexions sur le don d'organes, 2018). 

Sauf à rendre la personne réduite à la chose qu'est son corps, ce qui n'est pas éthiquement admissible en soi, cela est exclu, et le Droit est là pour que cela ne soit pas possible. 

C'est même pour cela que la notion juridique de "personne", qui n'est pas une notion qui va de soi, qui est une notion construite par la pensée occidentale, fait rempart pour que les êtres humains ne puissent pas être entièrement disponibles aux autres, par exemple par la mise sur le marché de leur corps (v. Frison-Roche, M.-A., ➡️📝Pour protéger les êtres humains, l'impératif éthique de la notion juridique de personne, 2018). C'est pourquoi par exemple, comme le souligne Sylviane Agacinski il n'y a pas d'esclavage éthique (un esclave qu'on ne peut pas battre, qu'il faut bien nourrir, etc.).

Que l'être humain y consente ("et s'il me plait à moi d'être battue ?") n'y change rien.

 

II. LA PREMIERE LIBERTE EST CELLE DE DIRE NON, PAR EXEMPLE EN REFUSANT DE REVELER SES EMOTIONS : PAR EXEMPLE CACHER SI L'ON EST HEUREUX OU PAS DE TRAVAILLER

La première liberté n'est pas positive (être libre de dire Oui) ; elle est négative (être libre de dire Non). Par exemple la liberté du mariage, c'est avant d'avoir la liberté de se marier, avoir la liberté de ne se marier : si l'on ne dispose pas de la liberté de ne pas se marier, alors la liberté de se marier pert toute valeur. De la même façon, la liberté de contracter suppose la liberté de ne pas contracter, etc.

Ainsi la liberté dans l'entreprise peut prendre la forme de la liberté d'expression, qui permet aux personnes, selon des procédures fixées par le Droit, d'exprimer leur émotions, par exemple leur colère ou leur désapprobation, à travers la grève.

Mais cette liberté d'expression, qui est une liberté positive, n'a de valeur qu'à condition que le travailleur est la liberté fondamentale de ne pas exprimer ses émotions. Par exemple s'il n'est pas heureux de son travail, car il n'apprécie pas ce qu'il fait, ou qu'il n'aime pas l'endroit où il ne fait, ou il n'aime pas les personnes avec lesquels il travaille, son liberté d'expression exige qu'il ait le droit de ne pas l'exprimer. 

Si l'employeur dispose d'un outil qui lui permet d'obtenir l'information quant à ce que le travailleur aime ou n'aime pas, alors celui-ci perd cette liberté première.

Dans l'ordre juridique occidental, l'on doit pouvoir considérer que c'est au niveau constitutionnel que l'atteinte est réalisée à travers le Droit des personnes (sur l'intimité entre le Droit des personnes et le Droit constitutionnel, v. Marais, A.,➡️📕  Le Droit des personnes2021).  

 

III. LE CONSENTEMENT NE DOIT PAS ETRE LE SEUL PRINCIPE REGISSANT L'ESPACE TECHNOLOGIQUE ET NUMERIQUE 


L'on pourrait considérer que le cas de l'entreprise est différent du cas des contrôles opérés par l'Etat pour la surveillance des aéroports, car dans le premier cas les personnes observées ont consenti.

Le "consentement" est aujourd'hui la notion centrale, souvent présentée comme  l'avenir de ce que chacun souhaite : la "régulation" de la technologie, notamment lorsqu'elle prend la forme des algorithmes ("intelligence artificielle"), notamment dans l'espace numérique. 

Le "consentement" permettrait un "usage éthique" et pourrait mettre fonder l'ensemble (sur ces problématiques, v. Frison-Roche, M.-A., ➡️📝Se tenir bien dans l'espace numérique, 2019).

Le "consentement" est une notion sur laquelle le Droit prend aujourd'hui des distances en Droit des personnes, notamment quant au "consentement" donné par les adolescents sur la disponibilité de leur corps, mais pas encore sur le numérique. 

Sans doute parce qu'en Droit des obligations, le "consentement" est quasiment synonyme de "libre volonté", alors qu'il faut les distinguer (v. Frison-Roche, M.-A., ➡️📝La distinction entre la volonté et le consentement, 1995). 

Mais l'on voit à travers ce cas, qui précisément déroule en Chine, le "consentement" est en Droit comme ailleurs un signe de soumission. Ce n'est que d'une façon probatoire qu'il peut constituer une preuve d'une libre volonté ; cette preuve ne doit se transformer en présomption irréfragable.

Les Autorités de Régulation des données (par exemple en France la CNIL) cherchent à reconstituer ce lien probatoire entre "consentement" et "liberté de dire Non" pour que la technologie ne permette pas par des "consentements mécaniques", coupés de tout rapport avec le principe de liberté qui protège les êtres humains, de déposséder ceux-ci (v. Frison-Roche, M.-A., Oui au principe de la volonté, manifestation de la liberté, Non aux consentements mécaniques , 2018). 

 

Plus la notion de consentement ne sera plus que périphérique et plus les êtres humains pourront être actifs et protégés.

________


 s'inscrire à la Newsletter MaFR ComplianceTech®

21 avril 2021

Base Documentaire : Doctrine

Référence complète : Merabet, S. La morale by design , in M.-A. (dir.), Les outils  de la Compliance, série "Régulations & Compliance", Journal of Regulation & Compliance et Dalloz, 2021, p. 287-298

 

Consulter une présentation générale du volume dans lequel l'article a été publié. 

 

___

Résumé de l'article (fait par Marie-Anne Frison-Roche)

Après s'être interrogé sur les rapports entre le Droit et la Morale, dont on a du mal à trouver des points de contact, l'auteur avance l'hypothèse que celle-ci pourrait trouver un espace de concrétisation dans la technologie de l'intelligence artificielle, alors même que beaucoup s'inquiètent des effets délétères de celle-ci. L'auteur considérant que la Compliance n'est qu'une méthode tandis que l'éthique serait la façon dont la morale est incorporée d'une façon assouplie dans le Droit, la technologie dite de l'Intelligence Artificielle pourrait donc exprimer la règle morale ("la compliance by design pourrait être l’outil adéquat pour permettre d’assurer l’effectivité des règles morales sans tomber dans les excès envisagés"). 

L'auteur prend appui sur des exemples pour estimer qu'ainsi la technologie pour d'une part exprimer la règle morale et d'autre part rendre celle-ci effective. La règle morale peut ainsi élaborée d'une façon équilibrée puisqu'elle l'est conjointement entre l'État et les opérateurs économiques, cette collaboration prenant la forme de principes généraux arrêtés par l'État des moyens choisis par l'entreprise. Son contenu serait également caractérisé par la recherche d'un "juste milieu", qui serait trouvé par cette répartition entre les principes moraux primaires dont l'expression serait le fait de l'État et les principes moraux secondaires dont l'expression serait déléguée aux entreprises.

Prenant donc ce qui seraient les principes de la Compliance, l'auteur les applique à l'Intelligence Artificielle, en montrant qu'on insère dans ces technologies non seulement le principe de neutralité mais encore les principes éthiques de non-malveillance, voire de bienveillance (principes premiers) que les entreprises déclinent ensuite en principes secondaires. Dès lors, "la compliance peut utilement être mise à profit pour convertir ces principes moraux fondamentaux en règles morales dérivées, source d’une plus grande effectivité.".

Aboutissant ainsi à une "morale by design", le système global dispose d'un outil d'effectivité supplémentaire. Cela suppose que les règles fondamentales et dérivées soient d'une qualité morale acquise car pour l'instant l'outil technologique ne peut assurer que leur effectivité et non pas la qualité morale des règles implémentées.  Dans la détermination des "règles morales d'application", l'entreprise dispose de marges de liberté, utilisées via les outils technologiques. 

 

______________

 

.

 

 

 

Consulter les résumés des autres articles composant l'ouvrage.  

 

____

1 avril 2020

Base Documentaire : Doctrine

Référence complète: Merabet, S., Vers un droit de l'intelligence artificielle, coll. Nouvelle Bibliothèque des Thèses, Volume 197, Dalloz, 509p.

5 janvier 2020

Base Documentaire : Doctrine

Référence complète: Adam, P., Le Friant, M. et Tarasewicz, Y. (dir.), Intelligence artificielle, gestion algorithmique du personnel et droit du travail, série "Les travaux de l'AFDT", Coll. "Thèmes et Commentaires", Dalloz, 2020, 241 p.

Lire la quatrième de couverture

24 décembre 2019

MAFR TV : MAFR TV - cas

Regarder la vidéo commentant la décision rendue par la Commission des sanctions de l'Autorité des marchés financiers (AMF)

Lire la décision.

_______________

 

En 2015, un document soi-disant émanant de l'entreprise Vinci est parvenu au média Bloomberg annonçant des résultats catastrophiques inattendus. Les deux journalistes l'ayant reçu l'ont dans l'instant répercutant sans rien vérifier, le titre Vinci perdant plus de 18%. Il s'agissait d'un faux grossier, ce qu'une vérification élémentaire aurait permis d'établir, vérification à laquelle les journalistes n'avaient pas faite.

4 ans plus tard, l'entreprise Bloomerg est sanctionnée pour le manquemement de "diffusion de fausse information" sur le marché financier, par une décision de la Commission des sanctions de l'Autorité des marchés financiers du 11 décembre 2019. 

L'entreprise poursuivie faisait valoir que c'était aux journalistes d'en répondre et non pas à elle, car elle avait mis en place et un logiciel de détection et un code de bonne conduite, alors même qu'aucun texte ne l'y contraint. Il convenait donc de ne pas la poursuivre.

La Commission des sanctions de l'AMF souligne qu'indépendamment de celà c'est une règle générale de la déontologie des journalistes qui oblige ceux-ci à vérifier l'authentificité des documents qu'ils diffusent, ce qu'ils n'ont en rien fait, alors qu'une vérification élémentaire leur aurait permis de mesurer qu'il s'agit d'un faux grossier.

Pourtant l'agence de presse Bloomberge avait demandé à la Commission des sanctions de poser une "question préjudicielle" à la Cour de justice de l'Union européenne sur l'équilibre à faire entre la liberté de la presse et des opinions d'une part et la protection des marchés et des investisseurs contre les "fausses informations" d'autre part.

Mais la Commission des sanctions de l'AMF estime que les textes sont "clairs" : il s'agit ici de l'article 21 du Réglement européen sanctionnant les abus de marché qui pose que si la liberté des journalistes doit être préservée, il faut que ceux-ci respectent leur propre déontologie, et notamment vérifient l'authenticité des documents sur lesquels ils s'appuient. Or, en l'espèce, ils ne l'ont en rien fait. Le manquement est donc constitué.

 

______

En outre, la Commission des sanctions se référe au Réglement européen sur les abus de marchés qui dans son article 21 vise le statut particulier à réserver à la liberté de la presse et au statut particulier des journalistes mais y associe cette obligation déontologique de vérification des documents. Or, la Commission des sanctions relève que cette obligation visée, et par la déontologie des journalistes et par le texte de référence de Droit financier, a été totalement méconnue par les deux journalistes. C'est donc à l'agence de presse d'en répondre.

Pourtant celle-ci soutenait que l'équlibre entre le principe de liberté de la presse et le principe de liberté d'opinion d'une part et le principe de la protection du marché financier et des investisseurs contre les fausses informations diffusées nécessite une interprétation du Droit de l'Union européenne, ce qui doit contraindre la Commission des sanction à saisir la Cour de Justice de l'Union européenne d'une question préjudicielle.

La Commission des sanctions écarte cette demande car elle estime que les textes communautaires sont "clairs", ce qui leur permet de les interpréter elle-même. Et précisément le Réglement européen sur les abus de marché dans son article 21 prévoit l'exception en faveur de la presse et des journalistes mais les contraint à respecter leur déontologie, notamment la vérification de l'authenticité des documents. En l'espèce, ils ne l'ont en rien fait. Ils sont clairement auteurs d'un manquement, imputable à l'entreprise.

________

Dans un cas moins net, l'on pourrait pu considérer que cet équilibre entre deux principes, tout deux d'intérêt public, est délicat et qu'une interprétation par la Cour de Justice serait toujours utile.

En effet et plus fondamentalement, le Droit financier demeure-t-il un Droit autonome, mettant en premier l'objectif la préservation de l'intégration du marché financier et la protection des investisseurs ou bien est-il la pointe avancée d'un Droit de l'information préservant chacun contre l'action de tout "influenceur" (catégorie à laquelle Bloomberg appartient) consistant à diffuser des informations inexactes (notion de "désinformaton") ?

Et cela n'est pas si "clair"....

 

_____________________

21 avril 2017

Blog

Par le site "Open culture", il est possible d'écouter Hayao Miyazaki qui, en mars 2017, affirmait que les jeux videos dont les dessins sont faits par des procédés d'intelligence artificielles sont des "insultes à la vie".

Lire ci-dessous l'histoire, les propos que le Maître a tenus, son conception de ce qu'est la création et un travail "réellement humain", ce qui est fait écho aux définitions données par Alain Supiot, qui lui aussi réfléchi sur ce que font les robots.

Cela ramène à la notion même de "création" et de travail créateur.

_____

Lire ci-dessous.