Débats sur les conséquences de l’homme augmenté, sur le chômage dû à la robotisation de nos sociétés, sur les craintes de voir surgir une super intelligence artificielle capable de nous renverser… Et si, pour détendre l’atmosphère, les superpuissants des nouvelles techno’ nous chantaient de jolis préceptes ? Eh bien oui, Google l’a fait, suivi de près par son rival Microsoft qui ne voulait pas rester sur la touche. Résultat des courses, nous obtenons les 5 risques de dérive des intelligences artificielles (IA) by Google, les 6 lois de la machine et les 4 lois de l’homme selon Microsoft. 

L’incroyable capacité attendue des intelligences artificielles

Les capacités croissantes des intelligences artificielles (IA) réveillent de nombreuses craintes partout dans le monde, alimentées par des déclarations tonitruantes de la part des pontes du transhumanisme ; ingénieurs et chercheurs de renom comme Stephen Hawkins et même Bill Gates qui scandent par exemple l’imminence de la fameuse « singularité » ; moment clé où la machine surpassera l’Homme pour le dominer ; en bref, où l’intelligence artificielle (IA) deviendra super intelligence artificielle.

l'intelligence artificielle AI prédictivePour calmer les ardeurs, et aussi sûrement pour rester aux centres des débats, Google et Microsoft se sont récemment essayés à l’art de donner des préconisations éthiques : du bon usage des intelligences artificielles dans nos vies. Ce ne sont pas les 3 lois de la robotique – formulées par l’écrivain SF Isaac Asimov et reprises dans tous les blockbusters – ce sont bel et bien les Codes de l’IA ou Lois de l’IA version Google et Microsoft.

Avec Google : les 5 problématiques des intelligences artificielles (IA) à résoudre rapidement

l'intelligence artificielle de googleCommençons par Google qui s’est récemment lancé dans la liste des problématiques soulevées par l’IA : « Les enjeux de vie privée, de sécurité, d’équité et d’économies sont tous importants à nos yeux. Mais dans ce document, nous discutons un autre type de problème de l’IA qui a tout autant d’impact sur la société : les accidents des systèmes de machine learning », mentionne le rapport. Par accident, entendez une tâche mal exécutée par une machine et entraînant des séquelles de tout ordre.

En clair, Google a listé les cinq problématiques que rencontrent les programmeurs et développeurs d’aujourd’hui ; problématiques qui, si elles ne sont pas résolues dans les prochaines années, risqueraient d’entraîner des conséquences fâcheuses, voire dramatiques dans l’utilisation des intelligences artificielles.

Voici la liste des 5 problématiques à résoudre au plus vite :

Numéro 1 : prioriser l’Homme, et non la mission

l'intelligence artificielle AI prédictiveImaginez un robot dont la mission est de récupérer des médicaments en pharmacie, mais qui n’aurait pas été programmé pour patienter le long d’une file d’attente… Comment agira-t-il pour atteindre son objectif ? C’est un peu le même concept de « l’optimisateur de trombones » qui avait été avancé par l’écrivain Eliezer Yudkowsky. Il racontait l’histoire d’une machine programmée pour maximiser le nombre de trombones en sa possession. Devenant de plus en plus intelligente, la machine finissait par utiliser toutes les ressources de la Terre, y compris en tuant des humains, pour accéder à de la matière première et fabriquer des trombones à volonté. L’IA devenait malfaisante « par accident », en quelque sorte. Pour parer à cette déconvenue, Google incite donc les développeurs d’algorithmes à prioriser la sécurité humaine sur la réalisation de la tâche.

Numéro 2 : pas de faille !

De même, l’intelligence artificielle ne doit pas être capable d’identifier une faille dans sa programmation, qui lui permettrait alors de résoudre la tâche pour laquelle elle est programmée d’une manière complètement différente, de changer son code pour faire autre chose, voire d’exploiter la faille à son avantage.

Numéro 3 : plus d’autonomie

l'intelligence artificielle AI prédictiveEnsuite, l’IA doit être souple. Si la tâche d’un robot consiste à nettoyer des bureaux et qu’il est programmé pour satisfaire au maximum le client, il sera enclin à demander toutes les 3 minutes si le client en question est satisfait au mieux ; rendant la machine dépendante à outrance de l’Homme dans la réalisation de sa tâche.

Numéro 4 : apprendre de manière sécure

L’IA progresse et apprend de ses expériences, mais elle doit pouvoir explorer le champ des possibles en toute sécurité ! Imaginez un robot aspirateur qui, pour tester de nouvelles méthodes de nettoyage, utiliserait le lavage à l’eau sur des appareils électriques ?

Numéro 5 : une capacité d’adaptation à tout environnement

Enfin, l’intelligence artificielle doit s’adapter à tout type d’environnement. Votre robot sait se déplacer sur des surfaces lisses et planes, mais qu’en sera-t-il en dehors de son laboratoire d’expérimentation ? L’IA doit être conçue pour apprendre de ses expériences, mais aussi réapprendre selon l’environnement dans lequel elle évolue.

l'intelligence artificielle AI a une structure identique à celle des neurones humainsEn résumé, selon Google, il s’agit pour les développeurs de réussir à hiérarchiser les priorités dans la programmation de leurs intelligences artificielles, de leur inclure les valeurs de société, la sécurité et les codes de conduite des humains. Il s’agit aussi de rendre les intelligences artificielles autonomes, adaptables à tout type environnement et incapables de détecter leurs propres failles, ce pour éviter tout dommage collatéral inattendu dans la réalisation de leur tâche...

Une belle liste, qui ne résout pas les risques encourus par l’avènement d’une super IA donc, mais qui résume les dérives potentielles et dans la foulée, nous rappelle qu’une machine malveillante et prête à tout pour anéantir l’homme par sa propre volonté ne figure pas dans la liste des possibles – ici, l’IA ne « détruit » l’homme que par accident et pour fabriquer des trombones.

Microsoft fait son Code éthique des IA

Pour faire comme son concurrent, Microsoft a lui aussi décidé de sortir sa petite liste dédiée à l’IA et c’est son PDG Satya Nadella qui s’y colle. Lui ne s’aventure pas dans la technique et la programmation pure, plutôt dans l’éthique. « À terme, hommes et machines travailleront main dans la main et non l’un contre l’autre », affirme-t-il en préambule. « La beauté du tandem homme-machine est occultée par les discussions sur le bien ou le mal de l’intelligence artificielle. Notre perception de l’IA semble piégée quelque part entre les voix menaçantes de HAL dans 2001 l’Odyssée de l’Espace et les voix amicales des assistants personnels comme Cortana, Siri et Alexa », poétise-t-il. Mouais, en attendant, voici les 6 lois des machines suivies des 4 lois de l’Homme selon Microsoft ; pour un futur idyllique et parfaitement harmonieux.

Les 6 lois des machines

Pour Microsoft, pour que l’intégration de l’Intelligence Artificielle se passe bien il faut que les machines respectent les 6 lois suivantes :

  • l'intelligence artificielle AI va-t-elle nous envahir ?les IA doivent être conçues pour aider l’humanité ; voyez les cobots, pour « robots collaboratifs », qui sont aujourd’hui conçus pour aider les humains à accomplir des tâches dangereuses, non pour les supplanter.
  • les IA doivent être transparentes : l’Homme doit comprendre le fonctionnement de la machine, ses principes de fonctionnement. En aucun cas les capacités de l’IA ne doivent nous échapper.
  • les IA doivent optimiser sans anéantir la dignité de l’Homme.
  • les IA doivent garantir la vie privée.
  • les IA doivent être responsables de leurs algorithmes et les humains doivent pouvoir les défaire à tout moment.
  • les IA doivent être dépourvues de tout biais afin de garantir l’égalité et l’objectivité dans la réalisation de leur mission.

Les 4 lois de l’Homme

Les humaines ne sont pas en reste puisque Microsoft préconise 4 lois de l’Homme pour connaître une évolution saine de notre société aux côtés des IA :

  • l'intelligence artificielle AI a une structure identique à celle des neurones humainsl’empathie
  • l’éducation
  • la créativité
  • la capacité de jugement et de responsabilité ; l’expertise humaine primera toujours, notamment pour endosser les responsabilités en cas d’échec de la mission par l’IA

Fallait-il vraiment l’intervention de Microsoft pour savoir tout cela ? Et avons-nous vraiment besoin des IA pour se dire que oui, empathie et responsabilité font le bienfait de l’humanité ? Sur ces bonnes paroles, on vous laisse méditer !