Web2Day : L’Intelligence Artificielle est-elle une personne comme les autres ?

64

Web2Day : L’Intelligence Artificielle est-elle une personne comme les autres ?

Depuis 10 ans, La Cantine réunit les professionnels et les passionnés de nouvelles technologies sous le soleil nantais. Le Web2Day, c’est 3 jours de folie pour faire le plein d’inspiration grâce aux 300 speakers nationaux et internationaux qui viennent nous éclairer sur les nouveautés du marketing, de la tech ou encore de l’entreprenariat. Ce « digital springbreak » se déroule dans une ambiance détendue et festive où les animations et soirées font de ces 3 jours une expérience mémorable.

Une partie de la team de MyDigitalWeek était sur place pour couvrir l’événement et le faire vivre à travers un live-tweet pour celles et ceux qui n’ont pu se déplacer.

Parmi toutes les conférences, focus sur :

L’Intelligence Artificielle est-elle une personne comme les autres ?

L’Intelligence Artificielle est un sujet plus que d’actualité. Elle soulève des questionnements, laisse parfois perplexe ou admiratif mais ce qui est certain, c’est qu’elle est au cœur des débats. Autour d’une table ronde animé par Florian Simon, Délégué régional de l’INPI, deux experts vont nous éclairer sur le sujet.

« L’Intelligence Artificielle est un gros buzz ! »

Avant tout chose, David Sadek, Vice-président recherche, technologie et innovation chez Thales définit l’Intelligence Artificielle : « c’est faire adopter à une machine des comportements qualifiés d’intelligents et d’humains. Cela passe par l’apprentissage, la compréhension, la décision, l’action mais tous ces systèmes restent artificiels ». Pour en arriver là, l’IA dispose de grandes masses de données qui reposent sur le Machine Learning et le Deep Learning. Mais l’IA est-elle pour autant pertinente ?

L’IA n’est pas qu’un « réseau de neurones » ou un « traitement de données », elle élabore au fur et à mesure une technologie de sens semblable à un humain. Cependant, elle reste incapable d’expliquer pourquoi elle a effectué tel ou tel choix. Par exemple, une intelligence artificielle est capable de reconnaître un chat mais expliquer pourquoi un chat est un chat, elle ne saurait le faire. Un humain en est capable car il dirait qu’on voit des moustaches, des oreilles, une queue… en fait l’IA est comme une boîte noire dont on ne sait expliquer le comportement. Alors comment peut-on faire confiance à une Intelligence Artificielle ?

David Sadek nous donne 3 critères pour une IA de confiance :

1/ L’explicabilité : l’IA doit être capable d’expliquer son système de décision et son fonctionnement pour qu’un humain lui fasse confiance

2/ La validation des systèmes : l’IA doit être capable de répondre formellement aux sollicitations

3/ La responsabilité : l’IA doit enfin minimiser les biais qu’elle comporte car dans un corpus de donnés, il y a souvent des biais ainsi, le mécanisme d’apprentissage est biaisé. Dans tous les cas, il faut donc que « l’homme reste dans la boucle de décision critique » conclut David Sadek.

Doit-on accorder des droits juridiques à l’Intelligence Artificielle ? 

Nathalie Nevejeans, Maître de conférences en droit privé à l’Université d’Artois, est formelle : « si on attribue des droits à un robot, c’est qu’on le considère en tant que personne avec une personnalité ». Pourtant, la Résolution du Parlement Européen de février 2017 a attribué une personnalité aux robots les plus évolués.

Dans ce cadre, nous attribuons donc des droits moraux à ces robots et ils peuvent bénéficier de sanctions. Les robots deviennent alors des personnalités juridiques. Mais si on y réfléchit bien, qui décide de l’action de ces robots ? Bien que ces derniers soient de plus en plus auto-apprenants grâce au fameux Machine Learning, un humain reste à la tête de ce robot. Si on s’en tient à la Résolution, lorsqu’on a un « litige » avec un robot, ce serait donc lui le responsable. Cependant lorsqu’un robot présente un défaut, le défaut vient soit du produit en lui-même à savoir le fabricant, soit c’est un défaut de l’utilisateur et donc, personne n’est à blâmer.

Ainsi, la Résolution rend responsable les robots les plus évolués en cas de dommage et déresponsabilise entièrement les fabricants. Mais les fabricants sont contre cette résolution car si on les déresponsabilise, c’est qu’on considère leur produit en tant que personne. Mais ces robots ne s’auto-commandent pas entre eux et n’ont pas de conscience à proprement parlé. Il y a donc certains points à revoir sur cette résolution qui continuera à faire débat. En somme, Nathalie Nevejeans reste perplexe et continuera à croire en l’humanité et à ces droits.

Et l’Europe dans tout ça ?

Pour conclure cette table ronde, Florian Simon, Délégué régional de l’INPI, nous dévoile le top 20 des déposants de brevets sur l’Intelligence Artificielle dans le monde.

Sans grande surprise, ce sont les Etats-Unis et la Chine qui alimentent ce top 20 avec dans le top 5 : IBM, Microsoft, Google, Yahoo et Baidu. Seul le groupe allemand Siemens est présent dans ce classement et il arrive à la 7e place. La non-présence de grands groupes européens dans ce classement n’est pas étonnant car « déposer des brevets sur la propriété intellectuelle n’est pas culturel en Europe » nous confie Florian Simon. « L’effet est plus grand aux Etats-Unis et en Chine malgré les grands centres de R&D européens ». Pourtant, l’Europe commence à entrer dans une prise de conscience assez forte car elle se rend compte de sa puissance et de sa potentielle possibilité de leadership mondial.

Maëva Ramsahai

Envoyée spéciale MyDigitalWeek

LAISSER UN COMMENTAIRE