2 mars 2022
Base Documentaire : Doctrine
Référence complète : Laroche, B. et Boullu-Chataigner, J., Brave New Planes ou la conformité juridique de grands groupes aéronautiques face aux défis de l'intelligence artificielle, D. IP/IT, 2022, p.83.
____
30 août 2021
Compliance : sur le vif
► Un article du 3 mars 2021, Smile for the camera: the dark side of China's emotion-recognition tech, puis un article du 16 juin 2021, "Every smile you fake" - an AI emotion - recognition system can assess how "happy" China's workers are in the office décrit la façon dont une nouvelle technologie de reconnaissance émotionnelle est apte, à travers ce qui sera bientôt démodé d'appeler la "reconnaissance faciale", de distinguer un sourire qui traduit un état de satisfaction effective d'un sourire qui n'y correspond pas. Cela permet à l'employeur de mesurer l'adéquation de l'être humain à son travail. Il est promis qu'il en sera fait usage d'une façon éthique, pour améliorer le bien-être au travail. Mais n'est-ce pas en soi que cette technologie est incompatible avec toute compensation par un accompagnement éthique ?
____
La technologie élaborée par une entreprise technologique chinoise et acquise par d'autres entreprises chinoises ayant beaucoup d'employés, permet d'avoir de l'information sur l'état d'esprit effectif de la personne à travers et au-delà de ses mimiques faciales et de son comportement corporel.
La technologie de reconnaissance émotionnelle avait été mise au point pour assurer la sécurité, en luttant contre des personnes au projet hostile, les Autorités publiques l'utilisant par exemple dans les contrôles dans les aéroports pour détecter les desseins criminels que pourraient avoir certains passagers.
Il est affirmé ainsi que non pas qu'il s'agit de lutter contre quelques personnes malfaisantes ("dangerosité") pour protéger le groupe avant que l'acte ne soit commis ("défense sociale) mais qu'il s'agit d'aider l'ensemble des travailleurs.
En effet non seulement l'usage qui en sera fait sera éthique, car en premier lieu les personnes qui travaillent pour ces entreprises chinoises à l'activité mondiale, comme Huawaï, le font librement et ont accepté le fonctionnement de ces outils d'intelligence artificielle (ce qui n'est pas le cas des personnes qui voyagent (le contrôle étant alors un sorte de mal nécessaire qu'ils n'ont pas à accepter, qui leur est imposé pour la sauvegarde du groupe), mais encore et surtout que la finalité est elle-même éthique : s'il s'avère que la personne ne se sent pas bien au travail, qu'elle n'y est pas heureuse, avant même qu'elle ait peut-être conscience, l'entreprise pourra lui venir en aide.
____
Prenons ce cas pratique du côté du Droit et imaginons que cela soit contesté devant un juge appliquant les principes du Droit occidental.
Est-ce que cela serait admissible ?
Non, et pour trois raisons.
1. Un "usage éthique" ne peut pas justifier un procédé en soi non-éthique
2. Les premières libertés sont négatives
3. Le "consentement" ne doit pas le seul principe régissant l'espace technologique et numérique
____
I. UN "USAGE ETHIQUE" NE PEUT JAMAIS LEGITIMER UN PROCEDE EN SOI NON-ETHIQUE
es procédés en eux-mêmes non-éthiques ne peuvent pas être rendus "admissibles" par un "usage éthique" qui en sera fait.
Ce principe a été rappelé notamment par Sylviane Agacinski en matière bioéthique : si l'on ne peut pas disposer de la personne d'autrui à travers une disposition de son corps qui rend sa personne même disponible (v. not. Agacinski, S., ➡️📗 Le tiers-corps. Réflexions sur le don d'organes, 2018).
Sauf à rendre la personne réduite à la chose qu'est son corps, ce qui n'est pas éthiquement admissible en soi, cela est exclu, et le Droit est là pour que cela ne soit pas possible.
C'est même pour cela que la notion juridique de "personne", qui n'est pas une notion qui va de soi, qui est une notion construite par la pensée occidentale, fait rempart pour que les êtres humains ne puissent pas être entièrement disponibles aux autres, par exemple par la mise sur le marché de leur corps (v. Frison-Roche, M.-A., ➡️📝Pour protéger les êtres humains, l'impératif éthique de la notion juridique de personne, 2018). C'est pourquoi par exemple, comme le souligne Sylviane Agacinski il n'y a pas d'esclavage éthique (un esclave qu'on ne peut pas battre, qu'il faut bien nourrir, etc.).
Que l'être humain y consente ("et s'il me plait à moi d'être battue ?") n'y change rien.
II. LA PREMIERE LIBERTE EST CELLE DE DIRE NON, PAR EXEMPLE EN REFUSANT DE REVELER SES EMOTIONS : PAR EXEMPLE CACHER SI L'ON EST HEUREUX OU PAS DE TRAVAILLER
La première liberté n'est pas positive (être libre de dire Oui) ; elle est négative (être libre de dire Non). Par exemple la liberté du mariage, c'est avant d'avoir la liberté de se marier, avoir la liberté de ne se marier : si l'on ne dispose pas de la liberté de ne pas se marier, alors la liberté de se marier pert toute valeur. De la même façon, la liberté de contracter suppose la liberté de ne pas contracter, etc.
Ainsi la liberté dans l'entreprise peut prendre la forme de la liberté d'expression, qui permet aux personnes, selon des procédures fixées par le Droit, d'exprimer leur émotions, par exemple leur colère ou leur désapprobation, à travers la grève.
Mais cette liberté d'expression, qui est une liberté positive, n'a de valeur qu'à condition que le travailleur est la liberté fondamentale de ne pas exprimer ses émotions. Par exemple s'il n'est pas heureux de son travail, car il n'apprécie pas ce qu'il fait, ou qu'il n'aime pas l'endroit où il ne fait, ou il n'aime pas les personnes avec lesquels il travaille, son liberté d'expression exige qu'il ait le droit de ne pas l'exprimer.
Si l'employeur dispose d'un outil qui lui permet d'obtenir l'information quant à ce que le travailleur aime ou n'aime pas, alors celui-ci perd cette liberté première.
Dans l'ordre juridique occidental, l'on doit pouvoir considérer que c'est au niveau constitutionnel que l'atteinte est réalisée à travers le Droit des personnes (sur l'intimité entre le Droit des personnes et le Droit constitutionnel, v. Marais, A.,➡️📕 Le Droit des personnes, 2021).
III. LE CONSENTEMENT NE DOIT PAS ETRE LE SEUL PRINCIPE REGISSANT L'ESPACE TECHNOLOGIQUE ET NUMERIQUE
L'on pourrait considérer que le cas de l'entreprise est différent du cas des contrôles opérés par l'Etat pour la surveillance des aéroports, car dans le premier cas les personnes observées ont consenti.
Le "consentement" est aujourd'hui la notion centrale, souvent présentée comme l'avenir de ce que chacun souhaite : la "régulation" de la technologie, notamment lorsqu'elle prend la forme des algorithmes ("intelligence artificielle"), notamment dans l'espace numérique.
Le "consentement" permettrait un "usage éthique" et pourrait mettre fonder l'ensemble (sur ces problématiques, v. Frison-Roche, M.-A., ➡️📝Se tenir bien dans l'espace numérique, 2019).
Le "consentement" est une notion sur laquelle le Droit prend aujourd'hui des distances en Droit des personnes, notamment quant au "consentement" donné par les adolescents sur la disponibilité de leur corps, mais pas encore sur le numérique.
Sans doute parce qu'en Droit des obligations, le "consentement" est quasiment synonyme de "libre volonté", alors qu'il faut les distinguer (v. Frison-Roche, M.-A., ➡️📝La distinction entre la volonté et le consentement, 1995).
Mais l'on voit à travers ce cas, qui précisément déroule en Chine, le "consentement" est en Droit comme ailleurs un signe de soumission. Ce n'est que d'une façon probatoire qu'il peut constituer une preuve d'une libre volonté ; cette preuve ne doit se transformer en présomption irréfragable.
Les Autorités de Régulation des données (par exemple en France la CNIL) cherchent à reconstituer ce lien probatoire entre "consentement" et "liberté de dire Non" pour que la technologie ne permette pas par des "consentements mécaniques", coupés de tout rapport avec le principe de liberté qui protège les êtres humains, de déposséder ceux-ci (v. Frison-Roche, M.-A., Oui au principe de la volonté, manifestation de la liberté, Non aux consentements mécaniques , 2018).
Plus la notion de consentement ne sera plus que périphérique et plus les êtres humains pourront être actifs et protégés.
________
21 avril 2021
Base Documentaire : Doctrine
► Référence complète : S. Merabet, "La morale by design", in M.-A. Frison-Roche (dir.), Les outils de la Compliance, coll. "Régulations & Compliance", Journal of Regulation & Compliance (JoRC) et Dalloz, 2021, p. 287-298.
____
📕consulter une présentation générale de l'ouvrage, Les outils de la Compliance, dans lequel cet article est publié
____
► Résumé de l'article (fait par le Journal of Regulation & Compliance) : Après s'être interrogé sur les rapports entre le Droit et la Morale, dont on a du mal à trouver des points de contact, l'auteur avance l'hypothèse que celle-ci pourrait trouver un espace de concrétisation dans la technologie de l'intelligence artificielle, alors même que beaucoup s'inquiètent des effets délétères de celle-ci. L'auteur considérant que la Compliance n'est qu'une méthode tandis que l'éthique serait la façon dont la morale est incorporée d'une façon assouplie dans le Droit, la technologie dite de l'Intelligence Artificielle pourrait donc exprimer la règle morale ("la compliance by design pourrait être l’outil adéquat pour permettre d’assurer l’effectivité des règles morales sans tomber dans les excès envisagés").
L'auteur prend appui sur des exemples pour estimer qu'ainsi la technologie pour d'une part exprimer la règle morale et d'autre part rendre celle-ci effective. La règle morale peut ainsi élaborée d'une façon équilibrée puisqu'elle l'est conjointement entre l'État et les opérateurs économiques, cette collaboration prenant la forme de principes généraux arrêtés par l'État des moyens choisis par l'entreprise. Son contenu serait également caractérisé par la recherche d'un "juste milieu", qui serait trouvé par cette répartition entre les principes moraux primaires dont l'expression serait le fait de l'État et les principes moraux secondaires dont l'expression serait déléguée aux entreprises.
Prenant donc ce qui seraient les principes de la Compliance, l'auteur les applique à l'Intelligence Artificielle, en montrant qu'on insère dans ces technologies non seulement le principe de neutralité mais encore les principes éthiques de non-malveillance, voire de bienveillance (principes premiers) que les entreprises déclinent ensuite en principes secondaires. Dès lors, "la compliance peut utilement être mise à profit pour convertir ces principes moraux fondamentaux en règles morales dérivées, source d’une plus grande effectivité.".
Aboutissant ainsi à une "morale by design", le système global dispose d'un outil d'effectivité supplémentaire. Cela suppose que les règles fondamentales et dérivées soient d'une qualité morale acquise car pour l'instant l'outil technologique ne peut assurer que leur effectivité et non pas la qualité morale des règles implémentées. Dans la détermination des "règles morales d'application", l'entreprise dispose de marges de liberté, utilisées via les outils technologiques.
________
8 décembre 2020
Base Documentaire : Doctrine
► Référence complète : M. Teller, "L'intelligence artificielle", in J.-B. Racine (dir.), Le droit économique au XXIe siècle. Notions et enjeux, LGDJ, coll. "Droit & Économie", 2020, pp. 461-478
____
📕consulter une présentation générale de l'ouvrage, Le droit économique au XXIe siècle. Notions et enjeux, dans lequel cet article est publié
____
► Résumé de l'article :
____
🦉Cet article est accessible en texte intégral pour les personnes inscrites aux enseignements de la Professeure Marie-Anne Frison-Roche
________
1 avril 2020
Base Documentaire : Doctrine
► Référence complète : S. Merabet, Vers un droit de l'intelligence artificielle, préf. H. Barbier, Dalloz, coll. "Nouvelle Bibliothèque des Thèses", vol. 197, 2020, 509 p.
____
► Résumé de l'ouvrage (fait par l'auteur) : "Les études consacrées aux conséquences de l'intelligence artificielle sur le marché de l'emploi prédisent un large mouvement de remplacement de l'homme par la machine au cours des prochaines années. Le phénomène ne semble a priori pas inédit et rappelle celui intervenu au cours de la Révolution industrielle. Néanmoins, l'observation des catégories d'emplois menacés interpelle. Toutes les activités semblent concernées. Ainsi, banquiers, comptables, avocats, médecins voire même magistrats pourraient être exposés à cette nouvelle concurrence technologique. Le remplacement progressif de l'intelligence humaine par l'intelligence artificielle ne semble pour l'heure connaître aucune autre limite que celle fixée par la technique. Pourtant, à l'étude, il apparaît que ces deux formes d'intelligences ne peuvent pas être tenues pour équivalentes par le droit. L'intelligence artificielle est en mesure d'imiter plusieurs manifestations de l'intelligence humaine, tel que le langage ou encore le calcul. À certains égards, l'intelligence artificielle surpasse même l'entendement humain. En revanche, d'autres manifestations de l'intelligence humaine lui font désespérément défaut. La conscience, la volonté ou encore les émotions sont étrangères à l'intelligence artificielle. Plus généralement, les dimensions subjectives de l'intelligence humaine ne sont pas accessibles aux systèmes informatiques, même les plus sophistiqués. Or, le droit se fonde de manière discrète mais certaine sur celles-ci. In fine, l'intelligence artificielle apparaît tout à la fois comme une forme d'intelligence diminuée et augmentée. C'est sur le constat de ces excès et carences de l'intelligence artificielle qu'il convient de penser le régime juridique qui doit lui être réservé. L'application à un système informatique intelligent de règles pensées pour les personnes peut s'avérer inadaptée. En effet, la confrontation entre le droit et l'intelligence artificielle révèle l'existence d'un paradigme sur lequel se fonde le droit positif. Le droit français s'appuie pour une large part sur la subjectivité inhérente à la personne humaine. Toutes les branches du droit semblent concernées, le droit civil comme le droit pénal ou encore le droit de la propriété intellectuelle. Dès lors, le régime juridique de l'intelligence artificielle apparaît bien incertain. L'objet de cette étude est donc de dissiper les doutes qui entourent la nature de l'intelligence artificielle en vue de la distinguer clairement de l'intelligence humaine. Aussi, le constat de l'absence d'identité de ces deux formes d'intelligence suppose d'une part de limiter le domaine de l'intelligence artificielle par la consécration d'un ordre public de l'Humanité, et d'autre part, d'adapter les règles pensées en considération de la subjectivité humaine à l'objectivité des systèmes informatiques intelligents. En définitive, l'appréhension juridique de l'intelligence artificielle est l'occasion d'une réflexion plus générale sur l'intelligence humaine et la place centrale qu'elle occupe dans notre ordonnancement juridique.".
________
5 janvier 2020
Base Documentaire : Doctrine
Référence complète: Adam, P., Le Friant, M. et Tarasewicz, Y. (dir.), Intelligence artificielle, gestion algorithmique du personnel et droit du travail, série "Les travaux de l'AFDT", Coll. "Thèmes et Commentaires", Dalloz, 2020, 241 p.
24 décembre 2019
MAFR TV : MAFR TV - cas
Lire la décision.
_______________
En 2015, un document soi-disant émanant de l'entreprise Vinci est parvenu au média Bloomberg annonçant des résultats catastrophiques inattendus. Les deux journalistes l'ayant reçu l'ont dans l'instant répercutant sans rien vérifier, le titre Vinci perdant plus de 18%. Il s'agissait d'un faux grossier, ce qu'une vérification élémentaire aurait permis d'établir, vérification à laquelle les journalistes n'avaient pas faite.
4 ans plus tard, l'entreprise Bloomerg est sanctionnée pour le manquemement de "diffusion de fausse information" sur le marché financier, par une décision de la Commission des sanctions de l'Autorité des marchés financiers du 11 décembre 2019.
L'entreprise poursuivie faisait valoir que c'était aux journalistes d'en répondre et non pas à elle, car elle avait mis en place et un logiciel de détection et un code de bonne conduite, alors même qu'aucun texte ne l'y contraint. Il convenait donc de ne pas la poursuivre.
La Commission des sanctions de l'AMF souligne qu'indépendamment de celà c'est une règle générale de la déontologie des journalistes qui oblige ceux-ci à vérifier l'authentificité des documents qu'ils diffusent, ce qu'ils n'ont en rien fait, alors qu'une vérification élémentaire leur aurait permis de mesurer qu'il s'agit d'un faux grossier.
Pourtant l'agence de presse Bloomberge avait demandé à la Commission des sanctions de poser une "question préjudicielle" à la Cour de justice de l'Union européenne sur l'équilibre à faire entre la liberté de la presse et des opinions d'une part et la protection des marchés et des investisseurs contre les "fausses informations" d'autre part.
Mais la Commission des sanctions de l'AMF estime que les textes sont "clairs" : il s'agit ici de l'article 21 du Réglement européen sanctionnant les abus de marché qui pose que si la liberté des journalistes doit être préservée, il faut que ceux-ci respectent leur propre déontologie, et notamment vérifient l'authenticité des documents sur lesquels ils s'appuient. Or, en l'espèce, ils ne l'ont en rien fait. Le manquement est donc constitué.
______
En outre, la Commission des sanctions se référe au Réglement européen sur les abus de marchés qui dans son article 21 vise le statut particulier à réserver à la liberté de la presse et au statut particulier des journalistes mais y associe cette obligation déontologique de vérification des documents. Or, la Commission des sanctions relève que cette obligation visée, et par la déontologie des journalistes et par le texte de référence de Droit financier, a été totalement méconnue par les deux journalistes. C'est donc à l'agence de presse d'en répondre.
Pourtant celle-ci soutenait que l'équlibre entre le principe de liberté de la presse et le principe de liberté d'opinion d'une part et le principe de la protection du marché financier et des investisseurs contre les fausses informations diffusées nécessite une interprétation du Droit de l'Union européenne, ce qui doit contraindre la Commission des sanction à saisir la Cour de Justice de l'Union européenne d'une question préjudicielle.
La Commission des sanctions écarte cette demande car elle estime que les textes communautaires sont "clairs", ce qui leur permet de les interpréter elle-même. Et précisément le Réglement européen sur les abus de marché dans son article 21 prévoit l'exception en faveur de la presse et des journalistes mais les contraint à respecter leur déontologie, notamment la vérification de l'authenticité des documents. En l'espèce, ils ne l'ont en rien fait. Ils sont clairement auteurs d'un manquement, imputable à l'entreprise.
________
Dans un cas moins net, l'on pourrait pu considérer que cet équilibre entre deux principes, tout deux d'intérêt public, est délicat et qu'une interprétation par la Cour de Justice serait toujours utile.
En effet et plus fondamentalement, le Droit financier demeure-t-il un Droit autonome, mettant en premier l'objectif la préservation de l'intégration du marché financier et la protection des investisseurs ou bien est-il la pointe avancée d'un Droit de l'information préservant chacun contre l'action de tout "influenceur" (catégorie à laquelle Bloomberg appartient) consistant à diffuser des informations inexactes (notion de "désinformaton") ?
Et cela n'est pas si "clair"....
_____________________
21 avril 2017
Blog
Par le site "Open culture", il est possible d'écouter Hayao Miyazaki qui, en mars 2017, affirmait que les jeux videos dont les dessins sont faits par des procédés d'intelligence artificielles sont des "insultes à la vie".
Lire ci-dessous l'histoire, les propos que le Maître a tenus, son conception de ce qu'est la création et un travail "réellement humain", ce qui est fait écho aux définitions données par Alain Supiot, qui lui aussi réfléchi sur ce que font les robots.
Cela ramène à la notion même de "création" et de travail créateur.
_____
Lire ci-dessous.