Ce qui relevait de la science-fiction se trouve maintenant en quelques clics. Les ordinateurs peuvent simuler des conversations en langage naturel, générer des images ou analyser de grands ensembles de données pour identifier des tendances qu’un individu aurait mis des semaines à trouver.
Bien qu’il soit juste de voir ces systèmes comme des outils puissants pour les organismes, il faut rester pragmatique et garder les pieds sur terre.
Où la technologie est-elle et où sera-t-elle demain[1] ?
Les systèmes d’intelligence artificielle (IA) actuellement disponible sont qualifiables d’IA faible, ou d’IA restreint. C’est-à-dire que les algorithmes ont des fonctions précises et qui se basent sur des jeux de données fixes.
L’IA forte, ou IA générale, n’est encore qu’un modèle théorique et dont les applications réelles restent à faire. Ce type d’IA serait capable de changer son fonctionnement et d’être capable d’adapter sa logique face à des contextes entièrement nouveaux.
Lorsqu’on prête à l’IA des caractéristiques humaines comme la conscience de soi, un sens éthique de l’empathie, on réfère à ce qu’on pourrait qualifier de super IA. Vous devinerez que le modèle est encore suffisamment théorique pour flirter avec la fiction…
La valeur pour les OBNL
Pour un OBNL, l’IA peut automatiser et améliorer nombre de tâches. Ce ne sont pas toutes les solutions qui sont accessibles en quelques clics et peu de ressources. Comme pour tout nouvel outil, une analyse des impacts et l’évaluation du retour sur investissement sont des prérequis fortement recommandés.
Un des outils les plus accessibles sont les engins conversationnels. Qualifiés d’IA génératives, ceux-ci ont comme finalité de générer des réponses en langage naturel lorsqu’une requête leur est envoyée. Ces outils peuvent aider à sauver du temps pour la lecture et la synthèse de texte, la rédaction de communiqué ou pour lancer une recherche sur un sujet particulier. Pour des besoins de nature générale, les outils disponibles sur internet sont abordables et simples d’utilisation. Les solutions plus avancées permettent d’ajuster le contexte, contrôler l’apprentissage automatique ou gérer la confidentialité des données soumises.
Un autre cas de figure, beaucoup plus complexe à mettre en œuvre, pourrait viser à implanter un outil d’analyse des dossiers de bénéficiaires/clientèles. Selon la nature du service rendu, ce type d’outil permet d’accompagner votre personnel en générant des diagnostics, des profils de risque ou tout autre aspect pertinents à votre offre de service.
Comment approcher la question de l’IA dans les OBNL ?
- Comprendre la finalité
La première chose qu’une personne dirigeante d’organisme doit se soucier d’un algorithme d’IA, c’est sa finalité. Au-delà du résultat apparent, vous devez savoir ce à quoi sert réellement l’algorithme, c’est-à-dire les paramètres qui régissent la production de ses résultats.
Par exemple, un agent conversationnel pourrait avoir comme finalité de simuler le langage naturel le plus fidèlement possible. Cependant, il n’a pas nécessairement comme objectif de donner la meilleure réponse à une question, ou même de s’en tenir aux faits ! Cette distinction est cruciale lorsqu’on intègre ce type de solution aux processus d’affaires.
Il en irait de même pour un engin analytique qui viserait par exemple à catégoriser les clientèles en sous-groupes. L’IA n’a pas de sens éthique ou de moralité intrinsèque, donc il pourrait utiliser des caractéristiques discriminatoires et ainsi faire du profilage dans son processus d’analyse. Il faut alors compenser ces lacunes en ajoutant des étapes de contrôle.
- Se donner un cadre d’utilisation
Tout outil, IA incluse, peut-être mal utilisé ou son usage détourné. D’ici à ce que nous développions des IA générales pouvant comprendre leurs contextes ou deviner l’intention des personnes utilisatrices, il revient aux OBNL d’en encadrer l’utilisation. Sans être exhaustif, vous devriez vous positionner sur les points suivants :
- Les rôles et responsabilités doivent être clairs.
- L’utilisation acceptable doit être bien définie et restrictive.
- Il est recommandé de prévoir des activités de surveillance afin d’être proactif dans l’identification et la correction des écarts potentiels.
- Certains cas de figure devront même prévoir des mesures de contestation ou de contre validation, par exemple si des décisions sont rendues grâce à des informations produites par l’IA.
La mission de l’organisme, la nature de l’outil et les résultats attendus sont uniques à chaque modèle d’affaires. Il faut donc être très prudent lorsqu’on s’inspire des pratiques d’un autre organisme.
- Respecter les lois applicables
On doit s’assurer que les outils retenus permettent de respecter les lois applicables, tout spécialement celles relatives à la protection des renseignements personnels et celles relatives au droit d’auteur et la propriété intellectuelle. Par exemple, nombre d’engins conversationnels conservent les requêtes qui leur sont faites afin de « s’entraîner ». Si des données confidentielles sont incluses dans les requêtes, on vient de les partager de façon illégitime à un tiers non autorisé. Elles pourraient même être partagées à une autre personne utilisatrice de la solution.
Portez une attention particulière aux clauses relatives à la conservation et la réutilisation des données des outils d’IA en ligne. Nombre d’entre elles se réservent le droit de conserver tous les intrants qui leur sont soumis, soit pour faire évoluer leur outil ou encore pour les revendre à des tiers.
Je veux me lancer, mais j’aimerais en savoir plus.
Le monde de l’IA est en pleine ébullition et il est parfois difficile de distinguer l’opinion des faits. Pour les personnes qui veulent se lancer dans cette aventure, prenez connaissance de la déclaration de Montréal. Sans vous proposer de solution concrète, cette déclaration vous permettra de vous positionner adéquatement pour recevoir l’IA dans vos milieux professionnels[2].
Des personnes bénévoles expertes peuvent même vous accompagner afin de vous outiller dans l’appréhension de l’IA dans votre OBNL ou encore la mise en place d’une politique en lien avec cette thématique.
Ce texte a été rédigé par Alexandre Paré, bénévole expert en technologies de l’information.
Bibliographie
[1] IBM Data and AI Team, « Understanding the different types of artificial intelligence »
(Compréhension des différents types d’intelligences artificielles), en anglais, en ligne : Types of Artificial Intelligence | IBM
[2] Voir le site de la déclaration de Montréal : https://declarationmontreal-iaresponsable.com/