Le recours à l’intelligence artificielle générative soulève plusieurs problématiques et enjeux d’ordre éthique, juridique, qualitatif et environnemental qu’il est important de comprendre, de connaître et de maîtriser pour faire de ces technologies un usage conscient et responsable.
L’usage de l’IA dans le secteur culturel doit être réfléchi et encadré pour éviter des dérives qui pourraient impacter l’authenticité des contenus, la protection des données, l’environnement et l’emploi.
Éviter la dépendance et l’uniformisation des contenus
Les études d’impact de l’IA générative tendent à démontrer son effet délétère sur la capacité des individus l’utilisant à faire preuve d’esprit critique1, c’est pourquoi on veillera à rester maître de l’outil, et à en faire un usage aussi raisonné que critique quant à ses résultats.
- L’IA générative doit être utilisée comme un outil d’assistance et non comme un substitut à la créativité humaine.
- L’IA générative est une technologie établie sur la statistique, qui est donc susceptible d’inventer des informations, des titres d’ouvrages ou d’articles scientifiques selon ce qui lui apparaît comme probable. Il faut donc garder une certaine ‘méfiance’ à l’égard des contenus produits, et lui demander ses sources.
- Il est crucial de personnaliser et réinterpréter les contenus proposés pour préserver une identité éditoriale forte et distinctive.
Protéger les données personnelles et respecter le RGPD
- Les institutions culturelles doivent choisir des solutions conformes aux régulations européennes et éviter d’intégrer des données sensibles dans des outils non certifiés.
- Informer les publics sur l’usage de leurs données et privilégier des solutions en local ou des IA entraînées sur des bases sécurisées et transparentes.
Limiter les biais algorithmiques et garantir une diversité de représentations
- Vérifier que les outils utilisés ne renforcent pas de stéréotypes dans les campagnes marketing, la programmation ou les analyses de fréquentation.
- Croiser l’analyse algorithmique avec une lecture humaine critique pour éviter les erreurs et les biais discriminatoires.
Limiter l’empreinte environnementale par un usage raisonné
L’usage des IA génératives vient aggraver une tendance déjà à l’œuvre qui annonce une augmentation massive du bilan carbone de nos usages numériques, susceptibles d’aller jusqu’à 60% d'ici à 2040 selon une étude conjointe de l’ADEME et de l’ARCEP2. De plus, si les Intelligences artificielles génératives sont toutes énergivores sur leur phase d’entraînement, elles ne le restent pas toutes une fois en service3.
- Privilégier des solutions d’IA moins énergivores et limiter les usages superflus (éviter de générer des contenus systématiquement).
- Sensibiliser les équipes aux impacts des requêtes IA et encourager des pratiques numériques responsables.
Anticiper les mutations du travail et accompagner les équipes
- Former les professionnels à un usage critique et éclairé de l’IA pour qu’elle soit un levier d’innovation plutôt qu’une contrainte.
- Inciter une veille active sur les évolutions des métiers impactés par l’IA, notamment dans les secteurs administratifs et créatifs.
- S’interroger sur le risque de remplacement de métiers par l’IA (photographe, auteur, graphiste…), de l’impact en termes de qualité de création et de la responsabilité sociale de l’institution à cet endroit.
L’IA générative constitue un levier puissant pour les équipements culturels, en facilitant la création de contenus et l’analyse des données. Par ailleurs une opportunité à saisir avec discernement. Son utilisation doit s’inscrire dans une stratégie globale et tenir compte des enjeux éthiques, écologiques et humains recensés plus haut. Un outil reste un outil : il appartient à l’humain de lui donner du sens. En se formant et en adoptant une approche critique, les professionnels de la culture peuvent exploiter ces technologies tout en préservant la singularité de leur institution. La formation sera le meilleur moyen d’assurer un usage raisonné et situé de ces technologies, comprendre les fonctionnalités premières, reconnaître et éviter les biais algorithmiques et identifier les cas d’usage pertinents. Pour s’appuyer sur l’IA sans lui donner un blanc sein.