[Interview] Michel Dumoret « Jamais considérer que ce qu’on reçoit sur les réseaux sociaux c’est argent comptant »

L’arrestation de Donald Trump ou encore Emmanuel Macron en éboueur dans les rues parisiennes sont, entre autres, les images qui circulent sur les réseaux sociaux ces derniers semaines. Leur point commun ? Elles ont été générées à partir d’un programme d’intelligence artificielle (IA), Midjourney. Avec des IA de plus en plus performantes, le risque pour les médias de propager une fausse image est présent. Michel Dumoret, directeur en charge de la lutte contre la désinformation à France Télévisions, revient sur le risque « démocratique » de ce type d’image et comment France Télévisions travaille dans ce contexte. Il évoque également les bons réflexes à adopter.

Réalisé par Kelvin Jinlack/EPJT.

[RÉSUMÉ] Conférence « Faire confiance à la science ? »

Retrouvez l’essentiel de l’événement « Faire confiance à la science ? »
Helen Lee Bouyghes présente la fondation Reboot.

Photo : Laura Blairet/EPJT

Avec Helen Lee Bouygues, présidente de la fondation Reboot, Frédéric Courant, cofondateur de l’Esprit Sorcier TV, Laurence Devillers, professeur à la Sorbonne et présidente de la fondation Blaise Pascal et Etienne Klein, physicien et producteur de l’émission « Le pourquoi du comment » sur France Culture.

Animé par Élodie Cerqueira, présidente du Club de la Presse Centre-Val de Loire.

 

 

Les enjeux

Peut-on faire confiance à la science ? Il s’agit là d’une question large, soumise à interprétation. C’est ce qui a résulté du débat du mardi 28 mars au soir. Chaque intervenant a planché sur ses propres réflexions autour de cette interrogation. C’est donc un mélange de questionnements variés qui se sont élevés dans la salle des fêtes de l’hôtel de ville de Tours. Des questionnements sur la connaissance des enjeux numériques, notamment en termes d’intelligence artificielle, sur les éventuelles législations ou sources d’éducation sur le sujet et sur la place des journalistes dans ce manège.

Ce qu’ils ont dit

Helen Lee Bouygues : « On ne prend plus le temps d’apprendre aujourd’hui. Les entreprises qui nous proposent des informations le savent et jouent sur le sensationnel pour nous faire rester. »

« Ce n’est pas une question d’âge sur les réseaux sociaux mais une question des contenus qui nous sollicitent sans arrêt. C’est sur cela qu’il faut légiférer, pas sur l’âge des utilisateurs. »

« Les jeunes n’ont pas l’habitude d’avoir le temps d’apprendre et de réagir. Il faut peut-être mettre un cadre à cela pour les réseaux sociaux mais aussi pour l’éducation de manière plus générale. »

Frédéric Courant : ​« Il y a une profonde curiosité dans la science pour le public, qu’il faut qu’on respecte. »

« Il y a le problème du temps dans le journalisme, qui manque toujours. Mais il y a aussi la satisfaction d’être payé à apprendre des choses. Ce métier demande un effort intellectuel : essayer de comprendre les choses avant de raconter des histoires. Sur les chaînes d’info en continu, on invite des experts que l’on ménage souvent. Ce n’est pas la même chose. »

Laurence Devillers : ​« Il y a une émergence de comportements dans la machine [à intelligence artificielle] qui n’a rien à voir avec une émergence de conscience, mais qui répond à notre besoin d’impression de parler à quelqu’un. »

« Il faut arrêter avec cette peur des machines qui nous remplaceraient. Elles apprennent différemment de nous. Tant qu’on en aura peur on ne comprendra pas ce que sont ces objets. »

« Je remarque que 90 % des programmeurs sont des hommes et que 90 % des robots programmés ont des caractéristiques féminines. Il faut se poser la question de la représentation que l’on donne de l’humanité à travers ces machines. »

« Je m’adresse aux journalistes. ChatGPT, c’est de la parole statistique en provenance de machines sans que les sources ne soient clairement identifiées. Attention à ces usages. »

Etienne Klein : « Notre cerveau n’a pas changé depuis 20 000 ans. Nous avons développé des biais cognitifs qui nous servent à prendre des décisions face à une information. Sans ces biais cognitifs, on ne survit pas. Nous sommes passés d’un contexte historique avec peu d’informations à un contexte avec beaucoup d’informations. Parmi lesquelles des fake news. »

« Notre cerveau n’aime pas être contredit. Les algorithmes se basent là-dessus et nous enferment dans des biais de confirmation. On se retrouve bloqué dans un monde qui se répète. »

« Il y a une complète confusion entre la compétence et la militance. Le fait d’avoir un avis tranché semble dédouaner de l’obligation de s’instruire. »

« Le droit de savoir, s’il n’est pas converti en désir de connaître, est complètement stérile. »

 

 

À retenir

Faire confiance à la science, en particulier dans l’espace médiatique, est un sujet vaste et fertile de questionnements. La place des journalistes dans l’utilisation du numérique, de l’intelligence artificielle mais surtout de leur compréhension de ces enjeux est primordial. Car elle affecte directement la façon dont ils parleront de la science et de ces nouvelles technologies au grand public. Une question que chacun et chacune doit se poser, comme nous ont invité à le faire les intervenants à la fin de la conférence.

Laura Blairet

 

.

[EN PLATEAU] Eric Scherer, directeur de la prospective à France Télévisions

Eric Scherer, directeur de la prospective à France Télévisions, était sur le plateau de l’EPJT pour nous parler de l’intelligence artificielle. Des robots novateurs qui s’emparent progressivement de certaines tâches que les journalistes. Une alternative novatrice dans le monde journalistique. 

Interview réalisée par Pierrick PICHETTE et Salomé RAOULT