Intelligence artificielle: les limites à ne pas franchir

[ndlr: Je vous rassure tout de suite, je ne vous ferais pas un cours sur le sujet (je suis présentement un MOOC concernant l’IA et sa programmation sur la plateforme EDX)]

On en parle un peu partout: L’IA, l’intelligence artificielle, devient une réalité et, dans les années à venir, elle prendra de plus en plus de place dans nos vies.
Je vous vois sceptique alors que, pourtant, elle est déjà présente un peu partout autour de nous, sans que nous en ayons pleinement conscience.

Des exemples? Sur vos PC/Tablettes/Cellulaire, on trouve des Siri, Cortana, Alexa. Oh, vous ne les utilisez pas? Vous considérez peut-être que ce sont de simples gadgets, mais pourtant, ils sont à l’écoute de vos moindres faits et gestes [ndlr: 1. Non, la NSA ne vous espionne pas; 2. Si le micro est coup, soyez relax; 3. Ce n’est pas activé par défaut]. Ce ne sont pas que des simples assistants journaliers, ils peuvent, si vous le voulez, vous faire la conversation!

Par exemple, vous voyez l’outil de traduction de google? En fait, l’IA qui gère la traduction a développé toute seule son propre langage, ceci afin de donner des traductions plus précises et plus fiables. Au lieu de gérer de la traduction mot-à-mot d’une langue vers une autre (vu le nombre de dialectes existants, ça fait un énorme multi-dictionnaire), elle a créé un langage intermédiaire facilitant ainsi ses traductions (l’article, en anglais, se trouve ICI).
Il y aussi la voiture autonome [ndlr: je sais, ça vous choque, vous ne lui faites pas confiance à cause d’un biais quelconque] qui est en circulation et à l’essai un peu partout sur la planète.
Dans le domaine de la vente de détails, chez certaines enseignes, les caméras de surveillances servent aussi à cataloguer le client et à pouvoir lui adresser des services spécialisés.
Les Bots, vous connaissez? Ce sont les « chats » (pas l’animal, hein!) automatiques qui vous répondent dans des conversation Messenger ou autre.

Dans un avenir proche (et proche, cela signifie que la génération Y connaîtra), l’IA remplacera de nombreux métiers de haut-niveau de diplomation (heureusement, pas les informaticiens :p ). Quand vous allez chez le médecin avec des douleurs et que les causes possibles sont pléthores, un algorithme couplé avec une prise de sang complète (ou autre action du genre) pourra permettre de pronostiquer votre maladie bien plus rapidement qu’un médecin; mieux encore, une ordonnance sera directement envoyée à votre pharmacie… Il en va de même pour le radiologue, le banquier (peut-être certains financiers)… Et cela ne s’arrête pas là.

Vous l’avez compris, l’IA est en marche et c’est pourquoi de nombreux scientifiques et philosophes poussent le monde politique à légiférer là-dessus.
Si une IA se développe sans limite, l’humain sera très vite dépassé dans de nombreux domaines (il perd déjà aux échecs et au jeu de Go).
Si on la spécialise dans la recherche scientifique, il est possible qu’elle crée de nouveaux modèles que nous ne saurions pas amènes de comprendre avant des siècles.
Et si elle juge que, pour sauver l’humanité, il faut en détruire une partie, qui pourra vraiment l’empêcher?

Des solutions? Je vous propose juste 2-3 concepts:
– l’IA doit être avant tout un assistant intelligent: il ne peut pas prendre l’initiative d’agir dans la réalité sans le consentement explicite d’un humain (celui pour le quel il travaille). Idéalement, c’est l’humain qui appuie sur le bouton, qui passe le coup de téléphone, etc…
– Aucune IA trop développée ne doit être intégré dans un robot (évidemment, il faudra définir un niveau d’évolution – d’ailleurs, il faut savoir qu’une IA a besoin de ressource informatique, RAM, processeur, disque-dur/usb/autre pour fonctionner. En limitant les tailles de ressources, on limite la puissance de l’IA).
– L’IA ne peut porter atteinte à un être vivant (pas envie de limiter à humain)
– Si l’IA se trouve dans une contrainte où elle doit choisir entre deux humains, elle doit déléguer l’action à un humain ou se désactiver.

Disons que ce serait une extension des trois lois de la robotique proposées par Isaac Asimov:
Première loi Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger.
Deuxième loi Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi.
Troisième loi Un robot doit protéger son existence dans la mesure ou cette protection n’est pas en contradiction avec la première ou la deuxième loi.

Rendez-vous sur Hellocoton !
The Postman Écrit par :

Soyez le premier à commenter

Quelque chose à rajouter?