* Les segments de ce texte produits avec l’assistance d’un robot conversationnel sont clairement identifiés.
Fonction d’autocorrection de notre téléphone cellulaire, application de traduction automatique d’un texte en ligne, assistant virtuel personnel comme Alexa prêt à nous faire jouer notre chanson préférée. Nous utilisons tous l’intelligence artificielle (IA) dans notre quotidien, parfois même sans le savoir.
L’IA est utile, elle améliore notre efficacité. Elle semble aussi nous rendre plus «intelligents» en nous permettant d’accéder à des connaissances et des méthodes de travail qui étaient réservées jusqu’alors à des experts. Il suffit d’une recherche rapide pour comprendre que le métier de journaliste est l’un des plus menacés par l’arrivée de l’IA, plus précisément, l’IA générative.
L’IA dite «traditionnelle» permet d’automatiser des tâches ou d’exécuter des opérations comme la traduction ou des calculs complexes. L’IA générative, comme son nom l’indique, génère des contenus à partir de gigantesques bases de données. Elle a la capacité de créer notamment de l’audio, des images, des vidéos et des textes de toutes sortes, dont des articles journalistiques. Ses capacités sont immenses.
À lire aussi : L’intelligence artificielle, une odyssée vers l’inconnu
Distinguer le vrai du faux
Heureusement, les médias dignes de confiance sont plutôt prudents dans l’intégration de l’IA générative dans leur salle de rédaction.
À titre d’exemple, le Los Angeles Times utilise depuis quelques années le robot Quakebot pour rédiger des articles dans les minutes suivant un tremblement de terre. Le texte est ensuite soumis à un secrétaire de rédaction – en chair et en os –, qui jugera si l’article mérite d’être publié. Dans l’affirmative, par souci de transparence, le journal y ajoutera une mention précisant qu’il a été généré par une intelligence artificielle.
Malheureusement, de «prétendus médias» utilisent l’IA générative pour produire des articles d’apparence journalistique. Ces textes comportent une fausse signature et sont publiés sans vérification des faits.
Certains médias ont même l’audace de publier un «guide de déontologie» et une «politique d’information» sans déclarer qu’aucun être humain n’assure la validité des données derrière la machine. L’audience n’y voit que du feu.
Et pourquoi des médias agissent-ils ainsi? Simplement pour empocher des revenus publicitaires.
Ces producteurs malveillants de contenus réussissent à se faufiler dans les moteurs de recherche, sur les réseaux sociaux et participent activement à la mésinformation et à la désinformation.
En plus du contenu écrit, il ne faut pas oublier que des systèmes d’IA générative réussissent à produire de l’hypertrucage [deepfake], c’est-à-dire une création ou une altération numérique de contenu visuel, audio ou vidéo usurpant l’identité d’une personne.
En février dernier, le premier ministre du Canada a d’ailleurs fait l’objet d’un hypertrucage dans une fausse entrevue avec l’animateur américain Joe Rogan.
À lire aussi : Quelle place pour la francophonie canadienne dans l’intelligence artificielle?
Occasion à saisir avec prudence
L’intelligence artificielle offre une tonne d’outils qui facilitent la vie des journalistes. Que ce soit des outils de transcription d’entrevues, de traduction de documents, de compilation de statistiques et j’en passe. Somme toute, des outils qui permettent de gagner du temps et d’automatiser les tâches peu stimulantes.
Mais l’IA ne peut pas remplacer, du moins encore, la sensibilité du journaliste. Elle ne permet pas d’interpréter un silence dans une entrevue ou encore d’aller chercher l’émotion chez un interlocuteur. Elle ne parvient pas non plus à s’adapter à une audience cible et ne tient pas compte du contexte culturel comme le font nos journaux locaux par exemple.
Par curiosité, j’ai demandé au robot conversationnel Chat GPT (consultez la conversation complète) de déterminer les risques de l’utilisation de l’IA générative en journalisme. Il est arrivé à la liste suivante :
- Diffusion de fausses informations
- Perte de confiance [envers les médias]
- Biais algorithmique (reproduction de préjugés)
- Remplacement des journalistes
- Perte de créativité et de perspectives humaines
- Utilisation abusive par les gouvernements ou les acteurs malveillants (propagande)
- Protection de la vie privée
Une liste plutôt juste.
En fait, le robot conversationnel a repris essentiellement les mêmes points soulevés dans les divers documents publiés sur la question qui se trouvent assurément dans sa base de données.
Chat GPT y va aussi d’une sage mise en garde puisée dans ses multiples sources : «Il est important de noter que les risques associés à l’IA générative dépendent de la manière dont elle est utilisée et règlementée.» Entendons-nous que nous y avions pensé nous aussi.
Le temps est venu pour les médias de mettre la guerre des clics de côté et de travailler avec les élus et les citoyens pour baliser l’utilisation de l’IA en information. Une action qui s’inscrit dans la lutte à la désinformation, qui met à risque plus que jamais nos démocraties.
En aout dernier, des associations et des grands médias de partout dans le monde, ont signé une lettre ouverte réclamant une intervention des États afin de règlementer l’usage de l’IA. Même si les signataires se déclarent en faveur de l’utilisation de l’IA, ils réclament de «protéger le contenu qui alimente les applications d’IA et maintenir la confiance du public dans les médias qui promeuvent les faits et alimentent nos démocraties».
Se sensibiliser pour mieux s’informer
Que nous le voulions ou non, nous sommes tous ensemble dans cette aventure devant l’intelligence artificielle. D’une part, les gouvernements ont la responsabilité de légiférer, pour assurer une utilisation à bon escient de l’IA, notamment en information.
D’autre part, les médias professionnels, déjà confrontés à cette réalité, doivent s’imposer des balises d’utilisation des nouvelles technologies et mettre à jour leur politique d’information et leurs lignes directrices en matière de transparence, d’éthique et de déontologie pour maintenir le lien de confiance avec leur audience. Un média se doit d’être transparent dans tous les aspects de son travail.
En tant que consommateurs d’information, votre jugement importe.
Dans un monde où l’information nous parvient par algorithmes, par processus de référencement et par popularité de l’émetteur, vous êtes l’ultime rempart contre la désinformation.
Pour ce faire, il faut se sensibiliser au travail journalistique et il faut faire de la sensibilisation. Une bonne compréhension citoyenne du journalisme et des médias solidifiera nos démocraties.