Cette semaine, Paris a accueilli le Sommet international de l’Intelligence artificielle. Et à une centaine de mètres du Grand Palais, lieu principal de ce sommet, le théâtre de la Concorde a organisé, lundi, un contre-évènement. Organisé par le Syndicat national des journalistes, il aborde les questions d’ordre éthique et déontologique que pose l’Intelligence artificielle.
Francis Magois est journaliste à L’Equipe. Là-bas, ça fait longtemps que l’Ia n’est plus sur le banc. Cet été, elle générait seule des podcasts sur les Jeux Olympiques à partir des articles du quotidien. Un grave problème déontologique pour le journaliste. «Ça a été vendu comme «ça ne coûte rien et il n’y a pas de travail supplémentaire au niveau de la rédaction». L’Ia, c’est une nouvelle forme de croyance qui permet peut-être d’avoir une rentabilité économique, mais la conséquence, c’est qu’il n’y aura plus de journalistes», estime-t-il. Et les premiers journalistes touchés risquent d’être les secrétaires de rédaction, c’est-à-dire ceux qui relisent et corrigent les articles. Pourtant, bien loin de décharger les journalistes de ces tâches supposées «rébarbatives» et «chronophages», les erreurs, trop fréquentes, de l’Intelligence artificielle les poussent à être deux fois plus vigilants. C’est ce qu’explique Eric Barbier, journaliste à L’Est républicain et coorganisateur du contre-sommet : «Il y a sans arrêt un contrôle humain, une relecture humaine qui est indispensable, parce que ces Ia commettent tellement d’erreurs qu’il faut repasser derrière elles en permanence. Donc, en fait, il n’y a aucun gain de temps. On ne peut pas demander à un journaliste, comme on l’entend aujourd’hui, même du président de la République, «il faut que les journalistes fassent leur métier, vérifient l’information», et leur demander de l’Ia générative qui n’est pas fiable. C’est complètement paradoxal comme raisonnement. Donc, revenons à l’essentiel, revenons aux fondamentaux du journalisme. C’est-à-dire donnons-nous le temps de faire notre métier, un métier qui respecte des règles éthiques, déontologiques, d’informations, de collecte d’informations sourcées, vérifiées.»
Et pourtant, l’utilisation de l’Ia se répand dans toutes les sphères journalistiques. Le journal Le Monde et l’Agence France presse ont déjà passé des contrats avec deux logiciels d’Intelligence artificielle générative. Face à cette arrivée massive de l’Ia dans les rédactions, Eric Barbier veut des garde-fous : «Il faut qu’on se mette autour d’une table déjà pour en discuter, comme le préconise le Conseil de déontologie journalistique et de médiation (Cdjm), qui fixe une échelle de risques à l’utilisation de ces Ia, avec un risque faible, un risque modéré, un risque à proscrire. Qu’on se mette autour d’une table justement en appliquant cette échelle de risque pour définir quelles Ia on peut potentiellement utiliser, c’est-à-dire celles qui n’ont aucun risque sur nos métiers.» Des chartes pour réguler l’Ia commencent à se mettre en place dans les médias. Signe que les rédactions prennent de plus en plus conscience des risques que pose un tel outil.
Avec Rfi