Ils ne sont peut-être pas toujours visibles, mais l'intelligence artificielle (IA) et le langage machine sont des moteurs de nombreux aspects de notre vie quotidienne. 

« Si vous posez une question à Alexa, à Google ou à Siri, vous utilisez l'IA, et eux utilisent des algorithmes d'apprentissage automatique, a indiqué Luigi Benedicenti, Ph.D., FEC, P.Eng, un ingénieur en électricité et en informatique dont les recherches portent sur le génie logiciel, la réalité augmentée pour les fournisseurs d’aide, et la réalité virtuelle. Lorsque vous demandez des directions ou en fait chaque fois que vous utilisez votre téléphone, l’intelligence artificielle est à l’œuvre ».   

M. Benedicenti a cité d'autres exemples où le langage machine de l'IA est évident, notamment l’utilisation de l’apprentissage machine par les services de diffusion pour recommander le prochain film d’après ce que vous avez visionné par le passé, ou encore son utilisation par les leaders du secteur bancaire pour détecter les fraudes (certains annoncent qu’ils utilisent cette technologie et d'autres non, mais beaucoup l'emploient probablement). 

« C’est du langage machine, mais il arrive souvent qu’on ne s’en rende pas compte, a indiqué M. Benedicenti. Beaucoup de choses se passent en arrière-plan. Dans le cas de photos, par exemple, on peut faire des recherches dans des systèmes pour trouver celle qui représente vraiment une personne connue, en comparant les caractéristiques de différentes photos. On dirait presque de la magie, dans une certaine mesure, mais on ne voit pas tout le travail qui se cache derrière. » 

En ce qui concerne l'apprentissage automatique à l'heure actuelle, le défi de la technologie de l'IA n'est pas de savoir où elle fonctionne bien, mais où elle pourra être utilisée de manière fiable dans l’avenir. Comment l'IA et l'apprentissage machine, en tant qu'industrie, peuvent se développer.  

« Sur le plan de l'éthique en génie, du point de vue des ingénieurs, cela s’apparente au serment que prêtent traditionnellement les médecins. D'abord ne pas faire de tort, ensuite soutenir et améliorer la sécurité du public. Si un algorithme ne montre pas cela ou si je ne peux pas le prouver, comment puis-je aller de l’avant? »  

L'IA et l'apprentissage automatique tout particulièrement utilisent des techniques qui sont un peu dépassées. Et le défi réside dans le fait que les ingénieurs, les chercheurs et les gens en général veulent être certains d’utiliser les versions les plus récentes de leurs outils.  

« Les algorithmes d’apprentissage machine fonctionnent de façon non intuitive. On sait avec une certitude relative qu’un certain pourcentage de réponses sont incorrectes, mais on ne sait pas combien il y a de bonnes réponses. Cela n’a aucun sens. Souvent, lorsque cela ne fonctionne pas, on devient désenchanté. Ça marche jusqu'à un certain point, puis ça ne marche plus, et ça nous déçoit. Et c'est cela, la limite de l'IA », a expliqué M. Benedicenti.  

D’autres observateurs ont également souligné que l’IA peut souvent refléter, voire aggraver les préjugés, notamment les préjugés liés au genre et à la race, ce qui signifie que les créateurs des algorithmes de l’apprentissage machine doivent faire preuve de considération en ce qui concerne la création des systèmes et les données utilisées par ces derniers. Un autre défi que l’IA pose aux ingénieurs : ils doivent savoir que les résultats sont certains afin de s’acquitter de leur obligation professionnelle de préserver la sécurité du public.  

« Tout fonctionne jusqu'à ce que ça cesse de fonctionner, et on ne peut pas prédire à quel moment cela va arriver. C'est pourquoi on utilise l’IA jusqu'à ce qu’on ne puisse plus l’utiliser, comme c’est le cas pour Google et les voitures autonomes. Comment peut-on utiliser l’IA sans certitude? Comment peut-on l'utiliser lorsque des vies sont en jeu? », a souligné M. Benedicenti.  

Les médecins connaissent souvent, par expérience et avec un haut degré de certitude, les résultats possibles attendus. Prenons le cas des virus, qu’on comprend jusqu'à un certain point. Un plus grand degré de certitude pourrait découler, par exemple, de l'utilisation du système CRISPR (outil d’édition génomique), de l'ARNm et de l'ADN. Et on peut étudier des médicaments, on peut faire des découvertes, mais on ne saura pas à moins d'essayer, a-t-il ajouté.  

« À mon avis, l’IA – et récemment avec l’apprentissage machine – peut être très utile, mais son plus gros problème, c’est qu'il est difficile de quantifier ce que cela signifie au niveau individuel. Nous avons besoin de cette assurance ».  

Étant donné que les réseaux neuronaux ne parviennent pas à saisir les éventualités et que l'absence de certitude fait apparemment stagner le langage machine de l'IA, la prochaine personne qui sortira des sentiers battus et comprendra comment faire progresser l’IA méritera beaucoup d'attention.  

« Les processeurs neuronaux sont encore limités et ne peuvent pas vraiment résumer les facteurs cérébraux. La personne qui trouvera la clé du prochain niveau recevra un prix Nobel! a conclu M. Benedicenti. L'IA peut être un domaine extrêmement actif. Un jeune chercheur pourrait utiliser le continuum informatique pour la faire progresser, et qui sait? J’ai le vertige rien qu'à penser à ce qui pourrait arriver ensuite. J’ai vraiment hâte de connaître la prochaine étape ». 

Regards sur le génie est une série qui explore l’aspect humain du génie à travers des histoires et des regards sur la vie des ingénieur.e.s. Cette série est parrainée par TD Assurance, un de nos partenaires affinitaires de confiance qui a pour mandat d’offrir aux ingénieurs et aux géoscientifiques des tarifs préférentiels pour l’assurance auto et habitation propriétaire, copropriétaire et locataire.

Pour de plus amples informations ou pour obtenir une soumission, visitez le www.tdinsurance.com/engineerscanada ou appelez le 1-866-293-9730.