Entrez dans l’association du barreau

Perspectives professionnelles : questionner la théorie de la personnalité juridique de l’intelligence artificielle

Temps de sortie :2022-06-21 09:08:01 Vues :2160

[Résumé] :Le développement de l’intelligence artificielle a apporté de nombreux défis au système juridique actuel, de sorte que la communauté académique propose de donner une personnalité juridique aux robots intelligents, et les robots intelligents dotés de volonté propre sont indépendamment responsables de leur propre comportement, et les principales voies d’argumentation consistent à formuler la théorie de la personnalité juridique, la théorie de la personnalité instrumentale, la théorie de la personnalité électronique et la théorie de la personnalité limitée. Cependant, l’essence de l’intelligence artificielle est d’exister en tant qu’outil de l’être humain, et le système juridique actuel n’est pas incapable de faire face aux défis posés par le développement de l’intelligence artificielle.

[Mots-clés] :Intelligence artificielle; la personnalité juridique ; Responsabilité civile

 

I. Formulation du problème

L’intelligence artificielle (IA), en tant que branche importante de l’informatique, a été officiellement proposée par Mc Carthy à la Dartmouth Society en 1956, et est connue comme l’une des trois technologies de pointe dans le monde aujourd’hui, et est devenue de plus en plus un sujet de préoccupation générale dans la communauté internationale. Ce qui rend l’IA remarquable, c’est qu’elle est « intelligente », qu’elle fonctionne sur la base d’algorithmes pré-implantés par l’homme, mais qu’elle a la capacité d’apprendre et de prendre des décisions de manière autonome. Les voitures sans conducteur, les médecins intelligents, etc. sont autant de réalisations dans le développement de l’intelligence artificielle, et ces produits d’intelligence artificielle ont un haut degré de conscience de soi, peuvent se détacher complètement des humains, interagir de manière autonome avec l’environnement environnant et décider d’agir ou non de se comporter de manière autonome. Le développement de l’intelligence artificielle signifie que l’être humain n’est plus la seule créature hautement intelligente, comme le disait le célèbre scientifique Stephen Hawking : le vrai risque de l’intelligence artificielle n’est pas sa malice, mais sa capacité. En 2015, Stephen Hawking a averti que l’IA super-intelligente pourrait facilement atteindre ses objectifs, mais que si ces objectifs étaient incompatibles avec ceux des humains, cela causerait des problèmes. L’intention initiale du développement de l’intelligence artificielle est de servir les êtres humains, mais sa grande intelligence détermine que l’intelligence artificielle ne sera pas sous le contrôle des êtres humains comme les outils de production ordinaires. Par exemple, lors du Salon international des réalisations high-tech qui s’est tenu à Shenzhen en 2016, le dysfonctionnement du robot « Little Fat » a causé des blessures à des personnes ; un homicide par robot dans une usine Volkswagen en Allemagne en 2015 ; L’affaire de la mort d’un piéton causée par la voiture sans conducteur d’Uber aux États-Unis en 2018 montre que si l’intelligence artificielle est au service des êtres humains, elle causera également des dommages à la vie humaine et aux biens, et que ces dommages sont imprévisibles et incontrôlables par les êtres humains.

Par rapport à l’innovation de la science et de la technologie, le développement du droit est à la traîne. Face au développement rapide de l’intelligence artificielle, les recherches sur la régulation juridique de l’intelligence artificielle battent également leur plein. Sur la base de l’autonomie et de la nature sociale de l’IA, de nombreux chercheurs ont proposé que l’IA se voie accorder le statut de sujet juridique et qu’elle assume de manière indépendante la responsabilité juridique causée par ses propres actions. Mais est-ce un remède aux problèmes juridiques causés par l’IA, ou pousse-t-il le développement du droit moderne plus profondément dans le bourbier ? Discutable.

2. L’approche argumentative de la théorie affirmative de la personnalité juridique par intelligence artificielle

Sur la base de l’autonomie de sa haute intelligence et de la socialité de pouvoir interagir avec l’environnement environnant de manière indépendante, la théorie affirmative soutient l’importance de donner une personnalité juridique à l’IA à partir des deux dimensions du fonctionnalisme et de la valeur, principalement à partir des points de vue suivants.

(1) Théorie fictive de la personnalité juridique

La théorie de la personnalité pseudo-légale est principalement basée sur une position fonctionnaliste, affirmant que l’intelligence artificielle a été très développée et a la capacité d’influencer de manière indépendante les droits et obligations d’autrui, tels que les voitures sans conducteur, les robots médecins, etc., et que le système juridique existant n’est pas suffisant pour réglementer cette chose émergente. Il est difficile d’affirmer que ces obligations ou droits correspondants sont attribués à d’autres dans des circonstances normales, ni avec le principe de cohérence des droits et obligations, mais ne peut être attribué qu’à l’intelligence artificielle. Deuxièmement, l’intelligence artificielle a une forte capacité d’apprentissage indépendant et peut créer des créations originales par l’apprentissage, et le droit d’auteur de ces créations entièrement obtenues par l’intelligence artificielle par l’apprentissage et la création indépendants devrait appartenir à l’intelligence artificielle elle-même. Afin de s’adapter au développement de la technologie de l’intelligence artificielle et de résoudre les litiges impliquant la propriété des droits des produits d’intelligence artificielle et les litiges en matière d’infraction à l’intelligence artificielle, il est nécessaire de partir de la position de donner la priorité aux droits de l’homme, d’utiliser la technologie législative de fiction juridique et de doter l’intelligence artificielle d’une personnalité juridique indépendante. La théorie de la personnalité juridique simulée consiste à donner de la personnalité juridique à l’intelligence artificielle par le biais de la fiction juridique pour résoudre l’impact de l’émergence de l’intelligence artificielle sur le système juridique actuel, et on pense que ce n’est qu’en donnant à l’intelligence artificielle le statut de sujet civil qu’elle peut jouir des droits civils et assumer des obligations, de sorte qu’elle peut assumer de manière indépendante la responsabilité juridique correspondante.

(2) Théorie de la personnalité instrumentale

Les chercheurs qui préconisent de doter l’intelligence artificielle d’une personnalité instrumentale pensent que doter l’intelligence artificielle d’une personnalité instrumentale limitée a sa base théorique et ses besoins pratiques. Tout d’abord, l’éthique n’est pas une exigence inévitable des sujets civils, et l’évolution historique de « les gens peuvent être des non-personnes » à « les gens peuvent être des personnes » explique que les sujets civils ne sont que des formes juridiques nécessaires à la société. L’abstraction est la caractéristique la plus essentielle de la personnalité juridique générale, et la matière juridique en droit civil se concentre sur la « personne » abstraite dans la vie sociale, plutôt que de se référer uniquement aux personnes physiques, les personnes morales à titre d’exemple. L’IA peut faire presque tout le travail des humains, elle a donc la capacité de jouir de droits et d’obligations. De plus, la propriété dont jouit l’intelligence artificielle est une exigence réaliste de responsabilité civile, et les robots bénéficient de droits de propriété basés sur l’identité de l’agent de l’employeur.

(3) Théorie électronique de la personnalité

« E-persona » est une motion présentée par la Commission des affaires juridiques de la Commission européenne en 2016 pour donner aux robots automatisés les plus avancés le statut de « cyborgs », reconnaissant ainsi leur statut juridique de sujets civils. Certains pays ont fait des tentatives plus audacieuses pour identifier le statut de l’intelligence artificielle. Combiné à l’évolution historique du sujet juridique et à la base juridique de l’ontologie, de la capacité et des éléments moraux du sujet juridique, on pense que le robot intelligent a l’autonomie et la normativité requises par le sujet juridique, il devrait donc être doté de la personnalité juridique d’un « cyborg ». Dans leur Uniform Electronic Transactions Act, les États-Unis définissent directement un système de commerce électronique comme une « personne électronique » ; L’Arabie saoudite a donné la citoyenneté à son robot intelligent « Sophia », qui possède de fortes « compétences en communication ».

(4) Théorie de la personnalité limitée

L’homme n’est pas un être humain parce qu’il est une créature physique et spirituelle, mais parce que, selon les règles de la loi, l’homme manifeste un but personnel. Par conséquent, il est réaliste de traiter un robot intelligent sans corps vivant en tant que personne morale. Les robots intelligents qui vont au-delà de la programmation et de la compilation et qui effectuent des activités basées sur une volonté indépendante peuvent pleinement prouver leur propre objectif et avoir la base de la personnalité juridique. Elle repose également sur la capacité limitée des robots intelligents à assumer leurs responsabilités ; Les robots intelligents existent en tant que services « instrumentaux » aux intérêts humains ; En plus de la crainte que le robot intelligent hautement développé puisse « dominer » les êtres humains, ces chercheurs estiment que, tout en reconnaissant la personnalité morale et juridique des robots intelligents, il est impossible pour les robots d’obtenir un statut de sujet complet, sans restriction et égal à celui des personnes physiques.

3. L’intelligence artificielle est définitivement essentielle

Du point de vue de l’approche argumentatoire des chercheurs qui soutiennent la théorie affirmative, les principales raisons de croire que l’intelligence artificielle devrait être dotée de la personnalité juridique sont les suivantes : Premièrement, le développement élevé de l’intelligence artificielle a permis aux robots hautement intelligents d’avoir une volonté indépendante, d’effectuer indépendamment des interactions sociales, d’apprendre et de créer de manière indépendante, et d’influencer les droits et les obligations d’autrui par leur propre volonté. Deuxièmement, avec le développement de l’époque, le champ des sujets juridiques ne cesse de s’élargir, tout comme l’émancipation des esclaves dans l’histoire, la fiction de la personnalité juridique des personnes morales dans les temps modernes, et la personnalité juridique des animaux dans la discussion, les êtres humains ne devraient pas s’en tenir au concept traditionnel de l’éthique et de la moralité humaines, et nier résolument la faisabilité de l’intelligence artificielle pour obtenir la qualification de sujets juridiques, comme le professeur Xu Zhongyuan estime que « l’éthique n’est pas une exigence inévitable des sujets civils », et le professeur Liu Xianquan pense qu’il peut y avoir une « moralité robotique » différente. Troisièmement, l’émergence de l’intelligence artificielle a eu un impact sur le système juridique actuel, comme la question de la propriété du droit d’auteur sur les créations d’intelligence artificielle, la question de la violation de l’intelligence artificielle, etc., qui va au-delà des dispositions des dispositions juridiques modernes. Afin de s’adapter aux progrès de la science et de la technologie et d’assurer le fonctionnement normal de l’ordre social, nous devrions saisir cette occasion pour promouvoir le développement du droit, doter l’intelligence artificielle de la personnalité juridique, et laisser ce sujet intelligent de haute technologie jouir des droits et obligations juridiques et assumer les responsabilités juridiques qu’il s’est lui-même imposé, afin de résoudre le dilemme de l’insuffisance des dispositions juridiques actuelles. Bien que de nombreux chercheurs aient plaidé en faveur de l’affirmation de la personnalité juridique de l’intelligence artificielle, l’auteur estime toujours qu’elle devrait être niée d’un point de vue conservateur.

(1) Sur l’absence de nécessité de donner la personnalité juridique à l’IA

1.intelligence artificielle

Le but du développement est de servir l’humanité

Il ne fait aucun doute que la science moderne a apporté de grandes contributions à la survie et au développement des êtres humains, mais nous devons admettre que tout ce que font les êtres humains est centré sur les intérêts humains, et la recherche et le développement de robots hautement intelligents ne visent qu’à libérer les êtres humains d’un travail plus mécanique et à se consacrer à un travail plus idéologique et à une vie heureuse. Les voitures sans conducteur, les médecins robotisés, etc., sont tous conçus pour mieux servir les humains. Par exemple, le professeur Liu Xianquan, qui défend la théorie de la personnalité limitée, estime que pendant longtemps, les robots ne peuvent être que des « outils » de personnes physiques, et que le statut d'« outil » des robots est profondément enraciné dans les concepts des gens, de sorte qu’il est difficile pour certaines personnes d’accepter la vision du statut des robots. Cependant, il admet aussi que même si les robots peuvent réellement devenir « d’autres personnes » un jour dans le futur, le proverbe « tout le monde est égal devant la loi » ne devrait pas s’appliquer entre les personnes physiques et les robots. Le statut restrictif de sujet des robots signifie qu’en cas de conflit entre les intérêts des personnes physiques et les intérêts des robots, les intérêts des personnes physiques doivent être protégés en principe et, dans la plupart des domaines, il ne devrait pas y avoir d’égalité entre les personnes physiques et les robots au sens juridique du terme. La « théorie de la personnalité instrumentale » qui prône l’affirmation montre le statut d’outil des robots intelligents au service de l’être humain à partir de son concept. On peut voir que même les chercheurs qui prônent l’octroi de la personnalité juridique reconnaissent hautement le statut de l’intelligence artificielle en tant qu’outil conçu et développé par l’homme pour servir les intérêts de l’humanité. De l’avis de l’auteur, la raison pour laquelle il préconise de lui donner la personnalité juridique n’est qu’en raison de l’émergence d’une autre « espèce » dotée d’une volonté indépendante autre que les personnes physiques, ce qui affirme cette grande similitude avec les êtres humains.

2.La réglementation juridique actuelle des questions liées à l’IA n’est pas sans chemin à suivre

La technologie est innovante, alors que le droit est à la traîne et que les normes juridiques ne peuvent jamais s’adapter parfaitement à tous les problèmes qui se posent dans la vie sociale. Par conséquent, il y aura des principes et des règles ainsi que des théories juridiques dans la loi pour que le pouvoir judiciaire puisse obtenir justice au cas par cas par l’application de méthodes juridiques lorsqu’il est confronté à de nouvelles situations qui ne sont pas expressément prévues dans le droit actuel.

À l’heure actuelle, il existe de nombreuses questions liées à l’intelligence artificielle, notamment la propriété du droit d’auteur des créations d’intelligence artificielle et la question de la responsabilité en cas de contrefaçon. Tout d’abord, en ce qui concerne la titularité des droits d’auteur de ses créations, les vues de la communauté académique sont les suivantes : premièrement, donner à l’intelligence artificielle le statut de sujet de droit, et elle bénéficie du droit d’auteur ; Deuxièmement, elle est réglementée par le système du droit d’accès, qui estime que les créations d’IA sont générées par l’investissement « non créatif » des investisseurs, et que les intérêts des investisseurs devraient devenir le centre de la protection du système juridique concerné. Troisièmement, la théorie des fruits. Selon la théorie du droit civil, le processus de considérer la création de l’IA comme un « organisme objet » devrait être reconnu comme « le fruit de la propriété intellectuelle », et le propriétaire de l’IA devrait jouir de ses droits. On peut voir que l’octroi de la personnalité juridique à l’IA n’est pas un moyen inévitable de résoudre la titularité des droits de ses créations, et la théorie des fruits ou la théorie du droit de réception est plus raisonnable, ce qui doit être continuellement débattu par les spécialistes, mais par rapport à l’octroi de la personnalité juridique à l’IA, l’interprétation juridique peut mieux maintenir la stabilité du droit.

Deuxièmement, la question de la responsabilité délictuelle de l’intelligence artificielle. De même, sur cette question, la communauté universitaire a également proposé un moyen de résoudre le problème de la responsabilité délictuelle de l’IA dans le cadre du système juridique existant - le système de responsabilité du fait des produits. Comme mentionné ci-dessus, l’intelligence artificielle n’est qu’un produit de haute technologie qui existe en tant qu’outil pour les êtres humains, mais elle est dotée d’un certain degré de volonté autonome, mais cette volonté autonome s’exprime également par des algorithmes prédéfinis, de sorte qu’elle incarne finalement la volonté subjective des concepteurs et des producteurs. Par conséquent, l’auteur estime que la responsabilité du fait des produits peut apporter une solution à la violation de l’IA, et qu’il n’est pas nécessaire de lui donner la personnalité juridique. En résumé, il n’est pas impossible que les questions liées à l’IA soient poursuivies dans le cadre du système juridique existant, mais au contraire, il est manifestement trop radical d’utiliser la nécessité de résoudre ces problèmes comme argument pour leur conférer la personnalité juridique.

2) Sur l’impossibilité de conférer la personnalité juridique à l’IA

1.Il existe un fossé entre l’intelligence artificielle et l’esprit humain

La chose la plus importante qui pousse de nombreux chercheurs à plaider en faveur de la personnalité juridique de l’intelligence artificielle n’est rien de plus que sa haute intelligence, et c’est une « espèce » avec une volonté indépendante autre que les êtres humains, mais il y a un fossé entre cette intelligence et la pensée des gens naturels. Tout d’abord, la volonté autonome de l’intelligence artificielle fonctionne sur la base d’algorithmes prédéfinis par l’homme, et est un processus mécanique qui n’a pas les émotions morales complexes des humains. Dans ce cas, lorsqu’elle est confrontée à des problèmes tels que le « problème du tramway », l’IA ne prendra des décisions qu’avec moins de pertes en fonction de sa propre mesure de valeur, et n’aura pas plus de considérations éthiques. Deuxièmement, certains chercheurs ont proposé que le système de la personne morale n’est pas du tout comparable, bien que la personne morale soit le sujet juridique de la personne morale, mais que ses organes de décision et d’exécution sont tous exercés par des personnes physiques, et ce n’est pas tant que la loi donne la personnalité juridique aux personnes morales pour protéger leurs droits et obligations, mais plutôt pour restreindre les personnes physiques qui sont effectivement contrôlées derrière la personne morale et protéger les droits de l’autre partie.

2.L’irréalité de la prise de responsabilité de l’IA

Les droits et obligations sont relatifs et, tout en jouissant de droits, ils doivent assumer des obligations correspondantes et ils doivent connaître les droits et obligations d’autrui. Si la responsabilité juridique engendrée par l’IA est assumée en lui conférant la personnalité juridique, la question de la capacité de l’IA à respecter les droits civils et le comportement civil doit d’abord être résolue. Si sa personnalité juridique et sa capacité en matière de droits civils sont reconnues, alors sous les nombreux niveaux d’intelligence des robots intelligents, comment diviser leur capacité comportementale, et s’il est nécessaire de diviser les incapacités, les capacités civiles limitées et les capacités civiles complètes comme les personnes physiques ? Une fois que les robots intelligents ont développé leur intelligence grâce à l’apprentissage autonome, comment peuvent-ils déterminer leur capacité comportementale ? On voit que la manière dont la personnalité juridique est conférée ne fera qu’entraîner davantage de problèmes juridiques.

Deuxièmement, la base de la responsabilité est la possession d’un bien, l’IA a-t-elle la capacité de jouir d’un bien de manière indépendante ? Il ne fait aucun doute que l’intelligence artificielle a la capacité de gagner de l’argent, mais il est également indéniable que le coût d’investissement de la conception et de la production de l’intelligence artificielle est assez élevé, et les concepteurs et les producteurs l’utilisent généralement comme un outil de profit, plutôt que comme un dévouement désintéressé comme une mère personne physique donnant naissance à un enfant, il est donc irréaliste de le laisser faire des bénéfices de manière indépendante et profiter de la propriété. De plus, la prise de responsabilité est une sorte de reproche juridique, et la propriété est la base de la production humaine et de la vie, donc afin de s’assurer que la base de la production humaine et de la vie n’est pas privée, les êtres humains limitent leur propre comportement et ne causent pas de dommages aux droits d’autrui. Pour les robots intelligents, la propriété n’est pas la garantie de base de la production et de la vie, et la façon dont ils regardent la propriété est différente de celle des êtres humains, donc même s’ils peuvent posséder indépendamment des biens et assumer une responsabilité légale de manière indépendante, ils ne peuvent pas restreindre leur comportement par une telle conception de système, et la loi perd sa fonction dissuasive.

De plus, la responsabilité civile est plutôt une sorte de responsabilité patrimoniale, mais comme l’intelligence artificielle a sa propre volonté, elle n’exclut pas la possibilité de ses actes illégaux et criminels, et si elle commet des actes illégaux et criminels, comment peut-elle être punie ? La punition a une fonction punitive et corrective, et l’imposition d’une sanction pénale à l’accusé signifie que ces sujets subissent des conséquences sociales, psychologiques et même physiques. Cependant, tout cela n’a aucun sens pour les robots qui ne peuvent pas être des agents moraux.[(1)]Parmi les types de châtiments, le châtiment libre et la peine de mort ne peuvent pas du tout remplir leur fonction de punition appropriée, et les robots intelligents n’auront pas un grand désir de liberté et de vie comme les êtres humains, ni n’auront honte de l’évaluation négative de la société. D’autre part, la punition a également un effet de consolation sur la victime, et il est difficile d’imaginer que punir un robot puisse réconforter la victime.

IV. En conclusion

En raison du développement scientifique et technologique, l’innovation et la contribution de l’intelligence artificielle à l’humanité méritent d’être reconnues, mais il est difficile de reconnaître l’affirmation de la personnalité juridique de l’intelligence artificielle. Les savants affirmatifs réclament la personnalité juridique tout en mettant constamment l’accent sur leur statut instrumental, leur personnalité limitée et leur statut inégal avec les êtres humains, ce qui est complètement contraire au principe le plus fondamental de l’égalité en droit. L’émergence de l’intelligence artificielle a posé des défis au système juridique actuel, mais cela ne signifie pas que lui donner la personnalité juridique est insoluble, et lui donner la personnalité juridique ne fera qu’apporter plus de problèmes difficiles à concilier avec la loi, et il est irréaliste d’assumer la responsabilité juridique. Par conséquent, l’auteur estime que nous devrions adopter un point de vue conservateur, voir la nature instrumentale de l’intelligence artificielle et chercher des solutions raisonnables à ses problèmes connexes dans le processus judiciaire.

 

Références

1. Zou Lei, Zhang Xianxian. Sécurité des réseaux d’information, 2012(02) :11-13.

2. Zhao Wanyi. Analyse du statut juridique des robots : et des exigences de base pour la réglementation juridique des robots[J].Journal de l’Université du Guizhou pour les nationalités (philosophie et sciences sociales),2018(03) :147-167.)

3. Huang Zhicheng, « Comment regarder l’avertissement de Hawking sur l’intelligence artificielle », China Youth Daily, 5 juin 2017, p.2.

4. Wang Yanhui. Approche argumentative et critique du statut de l’intelligence artificielle en tant que sujet civil[J].Journal de l’Université de science politique et de droit de Chine orientale,2020,23(04) :83-92.)

5. Yang Qingwang, Zhang Lei. Journal de l’Université des sciences et de la technologie du Hunan (sciences sociales),2018,21(06) :91-97.DOI :10.13582/j.cnki.1672-7835.2018.06.013.

6. Cao Xinming, Xia Chuansheng. Théorie abstraite de la personnalité et système de matière civile en Chine[J].Law and Business Research(Journal of Central South University of Political Science and Law),2000(04) :59-66.DOI :10.16390/j.cnki.issn1672-0393.2000.04.010.

7. Voir Xu Zhongyuan, « Sur la personnalité juridique instrumentale des robots », Law Review, n° 5, 2018, pp. 156-158.

8. Guo Shaofei. Cyborg"Subjectivité juridique[J].Jurisprudence Orientale,2018(03) :38-49.DOI :10.19404/j.cnki.dffx.2018.03.005.

9. Radbruch, La philosophie du droit, traduit par Wang Pu, Law Press, 2005, p. 134.

10. Liu Xianquan. Recherche en droit comparé, 2018(04) :40-54.)

11. Xie Zhengshan. Remise en question de la « théorie de la personnalité juridique » des robots : également sur la responsabilité civile des robots en cas de préjudice[J].Jinan Journal (Philosophy and Social Science),2020,42(08) :84-97.)

 

Unité : Gou Linli, cabinet d’avocats Beijing Dacheng (Chengdu)

Source : Réseau de l’Association des avocats de Chengdu et Comité professionnel du droit de haute technologie

 

Cet article est l’opinion personnelle de l’auteur et ne représente pas la position de l’Association des avocats de Chengdu