Le 9 janvier 2025, l’Observatoire de la lecture et de l’écriture des adolescents de Lecture Jeunesse a pu assister à une conférence sur les liens entre l’intelligence artificielle (IA) générative et la désinformation, organisée dans le cadre du cycle proposé par l’initiative « IA responsable » de SCAI (Sorbonne Université). Cet événement, labellisé par le Sommet mondial pour l’action sur l’IA 2025, s’inscrit dans un contexte où les nouvelles technologies, et en particulier l’IA, sont devenues omniprésentes dans notre quotidien (seulement 1 à 2% de la salle n’avait consulté aucun réseau social ou IA dans les 3 derniers jours). Loin d’être une simple avancée technologique, l’IA, et notamment l’IA générative, s’impose comme un enjeu majeur pour notre société, posant de nombreuses questions éthiques et politiques.
L’objectif de la conférence était de sensibiliser le public aux dangers que ces technologies représentent, particulièrement dans la sphère de la désinformation. En effet, l’IA générative, avec sa capacité à produire des contenus réalistes, mais faux, modifie en profondeur notre manière d’accéder à l’information et de nous forger une opinion. Côté Lecture Jeunesse, cette problématique nous intéresse particulièrement puisque, face à cette nouvelle donne, les adolescents, grands consommateurs de contenu en ligne et utilisateurs fréquents des réseaux sociaux, se retrouvent en première ligne.
Elle était notamment particulièrement d’actualité suite à l’annonce de Mark Zuckerberg de cesser la vérification des informations (fact checking) humaine sur Facebook1Damien Leloup, Alexandre Piquard (2025) « La fin des partenariats de fact-checking chez Meta, un revirement symbolique« , Le Monde ; https://www.lemonde.fr/economie/article/2025/01/07/la-fin-des-partenariats-de-fact-checking-chez-meta-un-revirement-symbolique_6486896_3234.html.
Un panel d’intervenants d’expertise variée
Pour aborder cette problématique complexe, un panel d’experts multidisciplinaires est intervenu. Chacun, dans son domaine respectif, a éclairé les participants sur les multiples facettes de l’IA et ses effets potentiels sur la désinformation :
- David Chavalarias, directeur de recherche au CNRS et au CAMS de l’EHESS, directeur de l’Institut des systèmes complexes de Paris Île-de-France, a abordé les aspects scientifiques et sociaux de l’IA générative. Selon lui, ces technologies peuvent devenir de véritables accélérateurs de campagnes de manipulation de l’opinion publique, notamment sur les réseaux sociaux. Avec 60 % de la population mondiale active sur ces plateformes, et 38 % des Français qui s’y informent, les réseaux sociaux sont devenus des terrains fertiles pour la désinformation, influençant massivement les adolescents. Ces technologies sont déjà utilisées sur le terrain, notamment la génération de faux contenus en période de vote pour influencer la population à des fins politiques.
- Fabrice d’Almeida, professeur d’histoire contemporaine et des médias à l’Institut français de presse, a retracé l’histoire de la désinformation. Bien que celle-ci ne soit pas nouvelle – elle existait déjà à l’époque antique – les outils numériques et l’IA ont transformé la tactique et l’ampleur des campagnes de manipulation. L’apparition des deepfakes et de l’IA générative, en particulier ces dernières années, a créé de nouvelles formes de manipulation beaucoup plus sophistiquées, ce qui nécessite une adaptation rapide des moyens de régulation et d’éducation des jeunes publics.
- Gérald Holubowicz, journaliste et entrepreneur en médias numériques, a quant à lui évoqué l’impact de l’IA sur le journalisme et l’économie des médias. Il a alerté sur les dangers de la prolifération de contenus produits par IA, non seulement en termes de désinformation, mais aussi sur l’effondrement du modèle économique de la presse. La possibilité pour le public de consulter des résumés ou des informations générées par IA sans vérifier les sources menace la pérennité d’un journalisme de qualité.
- Ewa Kijak, enseignante-chercheuse de l’Université de Rennes à l’Institut de recherche en informatique et systèmes aléatoires (IRISA), a expliqué les défis techniques liés à la détection des contenus générés ou manipulés par l’IA, en insistant sur l’importance de développer des outils capables d’identifier les fausses images ou vidéos. Elle a présenté les méthodes actuelles de détection, comme l’analyse des incohérences physiques dans les images ou la recherche de « bruits » spécifiques ajoutés par les modèles d’IA.
- Celia Zolynski, professeure de droit privé à l’Université Paris I Panthéon-Sorbonne et spécialiste du droit des technologies de l’information et de la communication, s’est concentrée sur les aspects légaux et la régulation de l’IA. Elle a souligné les efforts de l’Union européenne, pionnière dans la régulation des données, qui tente également de mettre en place des règles strictes pour encadrer l’utilisation des technologies d’IA, notamment les deepfakes. Elle a insisté sur la nécessité de distinguer les contenus créés par des humains et ceux produits par l’IA, une mesure importante pour protéger nos démocraties et garantir une information de qualité.
L’IA et les adolescents : une génération vulnérable ?
Les adolescents, par leur exposition constante aux réseaux sociaux et leur habitude de consommer rapidement l’information, sont des cibles privilégiées des campagnes de désinformation orchestrées grâce à l’IA générative. Leurs pratiques numériques, marquées par une utilisation massive des plateformes comme TikTok, Instagram ou Twitter, les exposent à des contenus souvent non vérifiés. David Chavalarias est également revenu sur deux autres risques : 1/ l’impact de l’IA sur la science : de plus en plus de traces d’utilisation de l’IA ont été détectées récemment dans les articles scientifiques, technique notamment utilisée pour augmenter la publication de papiers frauduleux2Cabanac, G., & Labbé, C. (2021). Prevalence of nonsensical algorithmically generated papers in the scientific literature. Journal of the Association for Information Science and Technology, 72(12), 1461–1476. https://doi.org/10.1002/asi.24495 ; 2/ baisse de la contribution authentique (prenant notamment l’exemple du déclin de Stack Overflow3Consulter notamment l’article sur Techzine : « Stack Overflow is dying: is it being replaced by AI? » ; https://www.techzine.eu/news/devops/127669/stack-overflow-is-dying-is-it-being-replaced-by-ai/, ce qui fait par ailleurs écho aux récentes déclaration d’Elon Musk4Un article sur The Guardian revient sur les déclarations d’Elon Musk selon qui « les données humaines utiles à l’entraînement des IA sont épuisées » : « Elon Musk says all human data for AI training ‘exhausted‘ » ; https://www.theguardian.com/technology/2025/jan/09/elon-musk-data-ai-training-artificial-intelligence) ; 3/ un effet global boomerang de baisse d’expertise.
Tous ces élément peuvent concourir à semer la confusion, et pas seulement auprès des jeunes qui n’ont pas toujours les outils critiques pour démêler le vrai du faux.
Il est donc essentiel que des programmes d’éducation aux médias continuent d’être développés pour aider les adolescents à développer leur esprit critique face à cette déferlante de contenus produits par IA, et surtout que ces programmes soient mis en cohérence avec la vitesse de développement et de propagation de ces outils, qui met même les scientifiques en situation de difficulté.
Propositions pour contrer la désinformation alimentée par l’IA
Parmi les solutions évoquées lors de la conférence, plusieurs pistes d’amélioration concrètes ont été mises en avant. Certaines pourraient avoir un impact direct sur les jeunes générations et leur rapport à l’information :
- Encourager une régulation stricte des IA génératives : Les intervenants ont unanimement souligné l’importance de réguler ces nouvelles technologies pour éviter leur utilisation à des fins malveillantes. L’Union européenne s’est déjà engagée sur cette voie avec des initiatives comme le Digital Services Act5http://data.europa.eu/eli/reg/2022/2065, qui impose aux plateformes de contrôler et labelliser les risques systémiques qu’elles génèrent, y compris la désinformation.
- Développer des outils de détection de la désinformation : Ewa Kijak a souligné les efforts de la communauté scientifique pour mettre au point des systèmes capables de détecter les contenus générés par IA. Ces outils pourraient aider les adolescents à identifier plus facilement les deepfakes ou les fake news qui circulent sur leurs réseaux sociaux préférés.
- Former les adolescents à l’esprit critique : Les jeunes doivent être sensibilisés aux risques que posent ces nouvelles technologies, et apprendre à vérifier les informations qu’ils consomment. Cette formation est cruciale pour lutter contre la désinformation à long terme.
- Impliquer les plateformes dans la lutte contre la désinformation : Célia Zolynski a rappelé que les grandes plateformes numériques doivent être tenues pour responsables de la diffusion de contenus manipulés. Les adolescents doivent avoir la possibilité de filtrer les contenus qu’ils voient et de savoir si une information a été générée par une IA.
- Agir collectif pour nos espaces numériques : Aller vers des produits transparents sur leurs conceptions, notamment via le mouvement HelloQuitteX6https://www.helloquitx.com/MANIFESTO-HelloQuitteX.html.
- Stratégie de réinvestissement du réel : réinvestir les espaces de rencontres et de présence humaine, notamment pour les journalistes.
Cette conférence a montré à quel point l’IA générative peut être une arme redoutable dans les campagnes de désinformation, et opère des changements drastiques sur l’environnement géopolitique actuel. Les intervenants ont mis en lumière la nécessité d’un cadre législatif solide pour réguler l’utilisation de l’IA, tout en appelant à la responsabilité collective pour protéger les jeunes utilisateurs. Car si l’IA générative représente une avancée technologique majeure, elle doit être encadrée pour ne pas devenir un danger pour nos démocraties.
Pour en savoir plus
- Lecture Jeunesse propose une formation en mars : https://www.lecturejeunesse.org/product/l-ia-a-travers-les-litteratures-et-les-pratiques-des-ados/
- Abonnez-nous à notre revue pour recevoir le numéro et le hors-série de septembre consacrés à l’IA : https://www.lecturejeunesse.org/abonnements/
- Abonnez-vous à notre newsletter pour être informés d’un prochain Panier du médiateur sur le sujet : https://www.lecturejeunesse.org/#newsletter
- La bibliographie sélective du CNLJ
Par Agathe Franck, responsable de l’Observatoire de la lecture et de l’écriture des adolescents chez Lecture Jeunesse
Références
- 1Damien Leloup, Alexandre Piquard (2025) « La fin des partenariats de fact-checking chez Meta, un revirement symbolique« , Le Monde ; https://www.lemonde.fr/economie/article/2025/01/07/la-fin-des-partenariats-de-fact-checking-chez-meta-un-revirement-symbolique_6486896_3234.html
- 2Cabanac, G., & Labbé, C. (2021). Prevalence of nonsensical algorithmically generated papers in the scientific literature. Journal of the Association for Information Science and Technology, 72(12), 1461–1476. https://doi.org/10.1002/asi.24495
- 3Consulter notamment l’article sur Techzine : « Stack Overflow is dying: is it being replaced by AI? » ; https://www.techzine.eu/news/devops/127669/stack-overflow-is-dying-is-it-being-replaced-by-ai/
- 4Un article sur The Guardian revient sur les déclarations d’Elon Musk selon qui « les données humaines utiles à l’entraînement des IA sont épuisées » : « Elon Musk says all human data for AI training ‘exhausted‘ » ; https://www.theguardian.com/technology/2025/jan/09/elon-musk-data-ai-training-artificial-intelligence
- 5
- 6