Éthique

Voici pourquoi le soulèvement n’aura pas lieu

De tout temps, les règles morales ont dû être dictées de manière succincte afin d’être assimilées par tous : c’est le cas...

Écrit par Jérôme Milot · 4 min lecture >

De tout temps, les règles morales ont dû être dictées de manière succincte afin d’être assimilées par tous : c’est le cas pour la morale divine (par le biais des 10 commandements), des constitutions (à la manière des amendements américains) ou même dans nos fictions (comme dans La ferme des animaux de Georges Orwell). Bien évidemment, les robots et l’intelligence artificielle étant au cœur des débats sur la morale, ils ne pouvaient échapper à la règle. Dans cet article, nous allons voir ce que sont les lois d’Asimov (dites « lois de la robotique ») et ce qu’il en est de l’IA actuelle !

Les lois de la robotique ont été formulées dans la nouvelle Cycle fermé d’Isaac Asimov en … 1942 ! Une nouvelle preuve que le besoin de doter les robots d’une morale à l’image de la nôtre n’est pas une problématique nouvelle. Laissez-moi vous parler un petit peu de notre homme avant de détailler ses fameuses lois.

Isaac Asimov est un auteur reconnu de science-fiction. Sa particularité la plus importante est le refus perpétuel des scénarios catastrophiques du soulèvement des robots qui étaient alors monnaie courante (et ce, depuis longtemps, en témoignent le docteur Frankenstein et sa créature !). Bien loin d’être alarmiste, il était déjà clairvoyant sur l’importance qu’allait revêtir l’intelligence artificielle dans le futur, et mettait un point d’honneur à en souligner tous les avantages que nous pourrions en tirer. Mais alors, ces lois démontrent-elles que, malgré tout, Asimov avait également une sorte d’appréhension au fond de lui ? Examinons donc ces trois lois initiales.


L'IA est-elle dangereuse ?

On entend beaucoup de choses sur l'IA quotidiennement, mais qu'en est-il réellement ?

Vote !

Déplacer le curseur. Faites-vous entendre !

0

Je le pense !

Certainement pas !



1ère loi d’Asimov : « Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger »


Une première loi qui annonce donc immédiatement la couleur : l’intelligence artificielle ne doit pas pouvoir, de quelque manière que ce soit, s’en prendre à nous. Plus encore : elle doit même tout mettre en oeuvre pour nous protéger.

« Je n’ai pas peur des ordinateurs. J’ai peur qu’ils viennent à nous manquer. » Asimov


Il faut savoir qu’à l’époque, les lois d’Asimov avaient été mise en place afin de rassurer les individus étrangers au concept des IA. Dans l’absolu, lui-même le savait déjà : l’intelligence artificielle ne réfléchit pas. De fait, elle ne pourra pas sciemment nous faire du mal ou tout faire pour nous sauver en cas de danger.

Ainsi n’avait-il pas décréter l’importance d’implémenter cette loi fondamentale dans le but de nous prévenir de tout danger (on ne vous le répétera jamais assez : une intelligence artificielle ne pense pas, et de fait, ne vous voudra jamais du mal !), mais davantage pour parer à toute éventualité. 

En effet, lors de son utilisation, l’intelligence artificielle peut être confrontée à des imprévus. Il est alors essentiel de préciser des règles de bases, afin que sa mission première ne représente pas un danger pour nous. Un exemple tout bête, et qui vous rappellera peut-être des souvenirs : lors de la DigitalTech Conference, il y avait le procès de la rame de métro n°42.

Après avoir fauché une voiture suite à un défaut de signalisation, la question d’à qui la faute se posait. Le métro n’a pas été doté de ce qu’il fallait pour prioriser la protection de la voiture (on pourrait songer à des détecteurs sur les voies imposant un arrêt au métro par exemple), et de fait n’a pas pu agir comme une bonne intelligence artificielle en protégeant la vie d’un être humain.

2ème loi d’Asimov : « Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi »


Cette loi-là va un peu plus loin que la précédente, renforçant le besoin de domination de l’Homme sur la machine. Celui-ci se comprend aisément : l’intelligence artificielle et tous les mythes qui l’entourent nous effraient. Il n’y a rien de mal à l’avouer. Alors, le besoin d’asservir – afin d’éviter tout risque de nous-mêmes le devenir – nécessite une telle loi.

Pourtant, vous qui nous lisez et commencez à bien nous connaître, vous savez que nous vous dirons toujours qu’un robot ne prendra pas de décision arbitraire. Qu’importe à quel point sa façon de raisonner semble proche de la notre, il ne s’agit toujours que de nombreux algorithmes ayant tourné pour produire la « réaction » du robot.

Non, ce qui est plus intéressant dans cette loi, bien plus que la première partie faite pour rassurer les plus inquiets d’entre nous, c’est bien la condition : « sauf si de tels ordres entrent en conflit avec la première loi ». Ici, Asimov souligne surtout l’importance d’incorporer, au sein de toute intelligence artificielle, le bien être humain avant l’ambition personnelle. Bien plus qu’une règle qui doit être imposée à tous les robots, il s’agit d’une maxime que tout scientifique digne de ce nom se doit de respecter.

3ème loi d’Asimov : « Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi »


Cette dernière loi a deux effets. Le premier est tout simplement pour éviter tout comportement « suicidaire » de l’intelligence artificielle, afin de ne pas réduire à néant tout le travail qu’elle aura fourni. Le second, plus subtil, relève davantage de la psychologie humaine selon moi. En un sens, la crainte commune autour des robots est celle d’un être qui nous ressemble, sans être un membre de notre espèce.

La peur qu’il nous surpasse prédomine, et son indifférence est finalement une raison de plus de le craindre. Le doter d’un besoin primaire, inscrit au plus profond de son processeur, de se protéger, c’est une manière de l’humaniser davantage et d’accepter un peu plus son avènement. Cette importance de se protéger, couplé avec le fait que cela soit moins important que protéger ou obéir à un individu, nous rend les robots plus dociles.

« Pour réussir, il ne suffit pas de prévoir. Il faut aussi savoir improviser. »Asimov

Une loi 0: « Un robot ne peut nuire à l’humanité ni laisser sans assistance l’humanité en danger »


A la lecture de ces différentes lois, vous vous êtes peut-être sentis rassurés. En effet, au premier abord, elles semblent infaillibles. Pourtant, c’est là tout l’intérêt des oeuvres d’Asimov : moult paradoxes peuvent les mettre à mal et mener à des situations littéraires tout à fait palpitantes (je vous invite tout naturellement à vous essayer à un de ces livres !). L’un deux, facilement repérable, pouvait être celui lié à l’utilitarisme : vaut-il mieux sauver une vie, quitte à mettre en péril le reste de l’Humanité ?

 Avec cette loi 0, introduite en 1950, Isaac Asimov coupe court à cette réflexion et confirme une fois encore : les robots sont à notre service, sans aucun risque de rebellion. Pour autant, certains paradoxes demeurent possibles, malgré les lois d’Asimov, et prouve que la réflexion sur les bases de la conception des intelligences artificielles ne doivent cesser d’évoluer, pour pouvoir parer à toute éventualité.

 Finalement, les lois d’Asimov ne sont en rien des règles morales pour les intelligences artificielles. Il s’agit bien plus d’un rappel éthique à tous les scientifiques travaillant dans le domaine : l’Humanité et la vie humaine avant vos ambitions personnelles. En ces périodes de courses à l’armement, ces lois semblent plus que jamais devoir être appliquées. Imaginez la catastrophe que représenteraient, par exemple, des drones capables de se déplacer seuls et de tirer à vue.


« La violence est le dernier refuge de l’incompétence. »Asimov

 
Pour conclure, je vous demanderai simplement de bien réfléchir à ce qui est le plus probable. Un soulèvement des robots vengeurs ou l’avènement d’armes sophistiqués dû à la vanité et l’avidité de l’industrie militaires ? Les lois d’Asimov résonnent comme un dernier appel : les intelligences artificielles doivent avoir pour but de rendre nos vies meilleures, pas de servir des intérêts inhumains.

Si vous aimez notre contenu, inscrivez-vous à la story  pour ne rien rater !

Écrit par Jérôme Milot
Normalien étudiant en première année à l'ENS Rennes Profile

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *