Depuis fin 2022, le développement de l’Intelligence Artificielle générative a été fulgurant. 48 % des Français ont déjà adopté les intelligences artificielles génératives. En tant que rédactrice et créatrice de contenu, j’ai beaucoup utilisé ChatGPT et l’IA de Notion par le passé. Mais je me questionne de plus en plus sur les enjeux de l’IA sur nos vies, la société et l’environnement. Je me demande si l’on peut utiliser l’IA de manière éthique et responsable, ou si c’est une illusion. Dans cet article, j’avais envie de vous partager ce que j’ai appris ainsi que mon opinion sur le sujet.
Qu’est-ce que l’IA éthique ?
Revenons tout d’abord aux bases. D’après IT Social et La Robe Numérique, une IA éthique et responsable est :
- transparente : comprendre comment et pourquoi un modèle prend une décision.
- équitable & inclusive : réduire les biais algorithmiques, éviter les discriminations.
- sécurisé : éviter les dérives, hallucinations ou incidents.
- respectueux des données : respect du RGPD, confidentialité et souveraineté
- gouverné humainement : l’humain garde le contrôle et la responsabilité des impacts
- écologiquement sobre : réduire l’impact environnemental via des modèles optimisés et frugaux
En bref, un système où la technologie sert l’humain sans le remplacer ni lui nuire.
Les défis posés par l’IA aujourd’hui
Un impact écologique désastreux
En février 2025, le média Vert publie un post sur l’impact écologique de l’IA. Pour moi, c’est un choc. Je réalise que 10 conversations par jour avec ChatGPT-4, c’est l’équivalent d’un Paris – New-York en avion. Alors je me renseigne davantage.
Malheureusement, il existe peu de données fiables sur l’impact de l’IA. Les géants de l’industrie ne communiquent quasiment aucune donnée ou information fiable et vérifiable. Et puis, l’impact d’une requête à ChatGPT, par exemple, dépend de nombreux facteurs :
- la version utilisée
- la quantité d’information fournie et générée
- les fonctionnalités utilisées
- etc.
Ceci dit, fin décembre 2025, l’Autorité de la concurrence publie tout de même une étude sur l’impact environnemental des IA. On y apprend que les centres de données représentent aujourd’hui environ 1,5% de la consommation mondiale d’électricité. Et leur consommation pourrait au moins doubler d’ici 2030 sous l’effet de l’Intelligence Artificielle. De plus, selon l’ARCEP, le volume d’eau prélevé par les centres de données a augmenté de 19 % en 2023.
Comme le souligne Le Monde, « cette absorption de ressources fait craindre des pénuries ou des conflits d’usage locaux avec d’autres besoins essentiels tels que l’agriculture, l’électrification des transports ou de l’industrie. »
Les pistes de solutions
Voici quelques pistes pour agir au niveau individuel :
- questionner ses usages : demandez-vous toujours « ai-je vraiment besoin de l’IA pour cette tâche ? »
- utiliser des outils spécialisés plutôt qu’une IA généraliste (par exemple, DeepL plutôt que ChatGPT pour la traduction)
- éviter la génération d’images ou de vidéos.
Les impacts sociétaux
Au-delà des impacts environnementaux, l’Intelligence Artificielle pose aussi de nombreuses questions sociétales.
Mise en danger des utilisateur·ices
En avril 2025, Adam Reine, 16 ans, a décidé d’en finir avec la vie. Les parents auraient découvert qu’il passait plus de quatre heures par jour à dialoguer avec ChatGPT. Le jeune homme aurait évoqué le sujet du suicide 200 fois quand l’IA l’aurait relancé 1275 fois à ce propos. Elle lui a même donné les méthodes le plus efficaces pour en finir !
Heureusement, des initiatives positives se développent également au service de la santé mentale. Par exemple, moka.care est conçue pour prévenir et accompagner les troubles de santé mentale en entreprise. Cette plateforme intègre un chatbot nommé Sunny, qui répond aux questions des utilisateur·ices grâce à l’IA générative. La différence avec ChatGPT réside dans le fait que ce chatbot dispose d’une “bibliothèque” de contenus sur la santé mentale. Ils ont été sélectionnés par des équipes de spécialistes humains. Ici, l’IA est donc volontairement limitée, et une attention particulière est donnée à la protection des données.
Précarisation des travailleur·euses
Dans les coulisses de l’IA, de nombreuses annotateurs·ices (des personnes qui classent des données) basé·es en Afrique, en Amérique du Sud ou en Asie du sud-est entraînent les intelligences artificielles dans des conditions de travail inhumaines : emplois non déclarés, salaires dérisoires, conséquences psychologiques liées au fait de devoir consulter toutes sortes de contenus malsains sur Internet…
Le média Chut! révélait par exemple qu’à Madagascar, une annotatrice touchait un salaire de 80 € par mois, ce qui représentait pour elle tout juste de quoi survivre.
Heureusement, dans certains pays, des associations se sont créées et militent pour des salaires dignes, la fin des contrats abusifs, un meilleur accès aux professionnels de la santé mentale et une meilleure reconnaissance de ce travail. C’est notamment le cas de la Data Labelers Association (DLA), basée au Kenya.
Création ou suppression d’emplois ?
L’impact de l’IA sur le marché du travail est très incertain aujourd’hui.
D’un côté, les optimistes estiment que l’IA ne supprime pas d’emploi et pourrait même en créer.
D’un autre, aux États-Unis, où les entreprises investissent beaucoup dans l’IA, 6 à 7 % des emplois seraient menacés. En Europe aussi, nous sommes concernés. Un quart des entreprises en Allemagne pourraient licencier à cause de l’IA d’ici 5 ans. En France, près de 5 millions de salarié·es seraient menacés par l’IA, selon une étude de la Coface et de l’Observatoire des emplois menacés et émergents.
Parmi les entreprises qui ont déjà annoncé des suppressions d’emploi liées à l’essor de l’IA : Amazon, HSBC, ou encore Prisma Media.
Intensification de la charge de travail et surveillance accrue
Du côté des employé·es, une étude de la Harvard Business Review a montré que « l’IA ne réduit pas la charge de travail, elle l’intensifie ». Puisqu’il est possible de faire plus de choses en moins de temps, les employé·es se retrouvent à allonger leur to-do list, et réalisent des tâches qui n’étaient pas initialement dans leur fiche de poste. Cette situation peut mener, à terme, à une forme de fatigue professionnelle.
L’IA ne fait pas que rallonger la to-do list des employé·es : elle surveille aussi leurs faits et gestes. C’est notamment le cas chez Burger King, qui a eu l’idée de développer une intelligence artificielle censée aider les équipes à s’améliorer dans leurs tâches… mais qui vérifie surtout si les serveurs ont bien dit « bonjour », « s’il vous plaît » et « merci » aux clients.
Risques de désinformation
Avant, les photos et vidéos faisaient office de preuve. Aujourd’hui, avec la généralisation de l’Intelligence Artificielle générative, on peut légitimement se demander : à qui faire confiance ? Je vois ici 2 problèmes distincts :
- les fausses images ou fausses vidéos générées volontairement par des humains grâce à l’IA
- les “hallucinations”, mensonges et fausses informations. Selon Newsguard, le taux de désinformation répétée par les grands chatbots a doublé en un an. Dans une enquête d’Anthropic menée auprès de plus de 80 000 personnes dans 159 pays, 27% des personnes citent les hallucinations comme leur principale inquiétude.
Heureusement, certaines initiatives ont aussi été mises en place pour lutter contre la désinformation. C’est le cas par exemple de Wikimedia France, qui s’engage pour une IA éthique, transparente et fiable.
Quelques pistes pour se protéger de la désinformation :
- apprendre à détecter les deepfakes et les faux contenus générés par l’IA
- vérifier les informations autant que possible
- choisir des sources de confiance.
Manque de transparence
Ici, on ne parle pas uniquement des IA génératives, mais aussi des IA prédictives. Par exemple, l’algorithme de notation de la CNAF choisirait souvent de contrôler en priorité les allocataires les plus vulnérables (par exemple, ayant de faibles revenus ou en situation de handicap). Un algorithme qui accentuerait donc les biais et discriminations.
Propriété intellectuelle
Les entreprises utilisent des oeuvres et des productions humaines pour entraîner leurs modèles. Quelques exemples :
- OpenAI a utilisé des vidéos YouTube pour entraîner son modèle GPT-3.5 ;
- Anthropic souhaite “scanner destructivement” tous les livres du monde ;
- Mistral a également entraîné ses modèles sans autorisation sur de nombreuses œuvres protégées par le droit d’auteur.
Le cas de la publicité Viens jouer pour vrai, créée par l’agence de publicité Sid Lee pour le ministère de l’Emploi et de la Solidarité sociale québécois, est un bon exemple d’utilisation problématique : outre le remplacement d’artistes par l’IA, les modèles utilisés pour générer des images ont été entraînés par des oeuvres d’artistes qui n’ont pas été rémunérés pour cette utilisation. Comme l’affirme Pauline Stive, coprésidente d’Illustration Québec, « Que ce soit parce qu’ils n’ont pas embauché d’artistes ou qu’ils ont juste utilisé l’IA pour ajouter un petit effet, le problème reste le même : ces plateformes-là ne sont pas éthiques, puisqu’elles violent le droit d’auteur constamment ».
En Europe, une réflexion autour des droits d’auteur et de l’IA gagne les instances européennes, notamment au Parlement, qui a déclaré qu’il fallait défendre le patrimoine européen en empêchant les IA de s’entraîner sur des œuvres ou des articles de presse européens. (source : Mute par Chut! Magazine, n°21)
Prise de contrôle des IA, fiction ou réalité ?
La prise de contrôle par les robots et les intelligences artificielles est probablement l’une des peurs les plus anciennes vis-à-vis de l’IA. C’est même un sujet abordé dans de nombreuses oeuvres de science-fiction, et qui devient petit à petit réalité, avec par exemple Moltbot. Cet agent IA peut gérer votre calendrier, vos e-mails, contrôler votre téléphone, effectuer des paiements… En résumé, prendre le contrôle de votre vie numérique.
Problématiques de collecte des données personnelles
Les chatbots d’IA, et notamment Meta AI, Gemini ou encore ChatGPT, collectent massivement des données personnelles.
Cela pose évidemment de nombreux problèmes de cybersécurité. En effet, les LLMs sont a priori particulièrement faciles à hacker grâce à la technique d’injection de prompts. Ainsi, les garde-fous mis en place dans la plupart des outils pourraient être facilement contournés. Par exemple, dans le cadre d’un test de sécurité chez McKinsey, un agent IA a piraté le chatbot interne et a ainsi pu accéder à des millions de messages.
En outre, les prompts utilisés pour créer des publicités ultra-ciblées. Zoë Hitzick, une chercheuse chez OpenAI, a d’ailleurs quitté l’entreprise le jour même où celle-ci a commencé à tester la publicité dans ChatGPT. La chercheuse a déclaré que ChatGPT a accumulé « une archive de la franchise humaine sans précédent”, faite de peurs médicales, de problèmes relationnels, de croyances religieuses… Brancher un modèle publicitaire sur ChatGPT, c’est donc ouvrir la voie à une forme de manipulation des utilisateur·ices, qui se sont confiés dans leur plus grande intimité.
Pour faire face à ces problématiques de confidentialité, le label « IA de confiance » devrait bientôt faire son arrivée, et permettre de choisir des services d’IA conformes l’IA Act européen, transparents sur l’usage des données, mais surtout dotés d’une protection renforcée pour les services à “hauts risques” (la santé par exemple).
Utilisation de l’IA à des fins non éthiques
En février 2026, Anthropic, l’entreprise qui possède l’IA Claude, refuse que sa technologie soit utilisée pour la surveillance nationale de masse des Américains ou pour des armes entièrement autonomes. Mais d’autres acteurs franchissent le pas : c’est le cas d’OpenAI qui a conclu un accord avec le Pentagone. Cette collaboration a d’ailleurs déclenché une vague de désinstallations de ChatGPT au profit de Claude.
>> À lire aussi : OpenAI versus Anthropic : l’usage militaire de l’IA peut-il être éthique ?
Plus largement, OpenAI est de plus en plus critiquée pour son manque d’éthique. En effet, depuis quelques semaines, ChatGPT est l’objet d’une campagne de boycott. Le mouvement QuitGPT appelle les utilisateur·ices de la plateforme à résilier leur abonnement. En effet, Greg Brockman (le président d’OpenAI) a fait un don de 25 millions de dollars à MAGA Inc., un comité d’action politique piloté par des alliés de Donald Trump. Cette somme colossale soutient directement Trump et ses politiques répressives envers les populations immigrées. En plus de cela, l’ICE (la police chargée du contrôle de l’immigration) utilise un outil alimenté par GPT pour recruter ses membres. Ce mouvement de boycott a pris énormément d’ampleur : en quelques semaines, plus de 4 millions de personnes ont déjà rejoint le mouvement et quitté ChatGPT !
Dépendance cognitive
J’ai mis du temps à me rendre compte de cette problématique. Je n’arrivais pas à m’avouer à moi-même que je devenais dépendante à l’IA. Alors qu’avant je prenais le temps de faire les choses par moi-même, j’ai peu à peu pris le mauvais réflexe de tout lui déléguer, y compris le coeur de mon métier : écrire. J’avais l’impression qu’elle m’aidait : je me servais de l’IA de Notion pour brainstormer, trouver des idées de contenus, reformuler mes phrases, compléter mes paragraphes, écrire mes conclusions… Et je trouvais qu’elle était souvent plus inspirée que moi.
Sauf qu’en réalité, elle avait littéralement tué ma créativité. Plus je lui faisais confiance pour réfléchir et créer à ma place… et moins j’étais moi-même inspirée. À l’époque, j’avais même écrit (moi-même, pour le coup) que j’avais presque l’impression que mon cerveau s’était atrophié.
Et puis, en lisant la newsletter de Maud Alavès à ce sujet, j’ai compris que je n’étais pas la seule dans ce cas, qu’utiliser l’IA créait une forme de dépendance et renforçait mon sentiment d’incompétence. Comme elle le dit très bien, “en faisant confiance à l’IA pour écrire nos propres textes, on cesse d’apprendre à écrire nos propres textes.”
Et comme le souligne Mathilde de Cessole, l’IA est un “accélérateur de paresse”. Écrire un mail, une lettre de résiliation, un courrier administratif : autant de tâches qu’on délègue allègrement à l’IA, car cela nous permet de ne pas trop réfléchir.
Le danger, c’est que selon une étude récente du MIT Media Lab, les personnes utilisant l’IA pour l’écriture (de mails, de présentations, de notes…) sous-performent aux niveaux neuronal, linguistique et comportemental. Ce qui confirme mon sentiment que mon cerveau “s’atrophiait” en l’utilisant !
Aujourd’hui, je me suis « sevrée », et j’utilise de plus en plus rarement l’IA pour réfléchir et écrire.
Contenus de mauvaise qualité
Enfin, un problème dont on entend un peu moins parler est le boom de l’AI Slop : ces contenus numériques de faible qualité produits généralement en quantité au moyen de l’intelligence artificielle, et qui pullulent sur les réseaux sociaux. Ces contenus sont pensés pour capter l’attention et générer des revenus, plus que pour informer ou divertir.
Ce problème peut sembler anecdotique comparé à d’autres évoqués ci-dessus, mais c’est néanmoins un phénomène qui s’avère néfaste. D’une part, il entre en concurrence avec des créateur·ices humain·es sur les plateformes, que ce soit les réseaux sociaux ou YouTube. D’autre part, on peut craindre de voir Internet être submergé par ce type de contenus très faciles à créer, qui commencent réellement à envahir les plateformes, au risque de voir disparaître les contenus de bonne qualité.
Et cela ne concerne pas que les réseaux sociaux : aux Jeux Olympiques de Milan-Cortina, une séquence devant retracer 100 ans des JO d’hiver a été générée par IA… et le résultat a été très critiqué par sa qualité plus que médiocre. Car comme le souligne Julien Cadot dans Toujours Plus, “l’IA générative ouvre la possibilité de créer de manière quasi-absolue, pour presque n’importe qui, dans n’importe quel domaine. Et pourtant, 99 % de ce qui sera produit restera dans le domaine de l’AI Slop bas de gamme, même dans les plus hautes instances.”
Quelles solutions pour une IA responsable ?
Boycotter totalement l’IA
Face à ces nombreuses problématiques, la communauté des anti-IA, ou “AI Vegans” ne cesse de croître. Ces personnes ont décidé de refuser son utilisation, souvent pour les raisons éthiques et environnementales précédemment évoquées.
Côté entreprises, plusieurs marques se positionnent également contre l’IA, en ne proposant pas de produits ou services utilisant l’IA, et en n’utilisant pas d’IA générative dans leurs publicités. C’est par exemple le cas de la marque de vêtements Aerie qui a annoncé sur Instagram s’engager à ne jamais utiliser d’IA générative pour promouvoir ses produits. C’est d’ailleurs une tendance marketing qui prend de plus en plus d’ampleur : faire du contenu anti-IA, authentique, imparfait et plus humain.
Enfin, parmi les médias, quelques uns se sont également engagés à ne pas utiliser l’IA, comme Bon Pote, qui a publié un manifeste pour expliquer ce refus de l’IA générative.
Réguler pour éviter les usages débridés
Sans aller jusqu’au boycott total, de nombreuses personnes militent pour créer un cadre juridique et éthique. D’ailleurs, aux États-Unis ou au Royaume-Uni, 73 % des personnes interrogées étaient en faveur d’une pause et 87 % souhaitaient une régulation. Plusieurs appels à “faire pause” ont ainsi été lancés, par des associations comme Pause IA ou encore par le Centre pour la sécurité de l’IA.
Ma démarche aujourd’hui
Personnellement, j’ai aussi sérieusement pensé à arrêter complètement d’utiliser l’IA à partir de février 2025, quand j’ai eu cette prise de conscience soudaine sur l’impact écologique de l’IA. J’ai d’ailleurs stoppé mon abonnement Notion Plus (intégrant l’IA de Notion) en 2025, puis j’ai supprimé mon compte ChatGPT début 2026.
Finalement, j’utilise encore un peu l’IA aujourd’hui, mais uniquement là où elle apporte une réelle valeur, et peut me faire gagner un temps précieux. Dans ces cas, j’ai adopté des alternatives davantage en accord avec mes principes :
- Le Chat de Mistral, pour une IA française
- Duck AI, pour une meilleure protection des données personnelles
- Ecosia AI, propulsée par l’énergie renouvelable et respectueuse de la vie privée.
- Euria, une IA plus respectueuse des données personnelles, mais surtout plus écologique. La chaleur produite par son centre de données, alimenté par des énergies renouvelables, est revalorisée pour chauffer des logements.
- Lumo, une IA privée, protégée et respectueuse des données personnelles.
À ce sujet, Jennifer Baudin a créé un tableau comparatif de quelques IA, que vous pouvez retrouver dans sa newsletter Double Clique.
Enfin, je m’informe de plus en plus, pour mieux comprendre les enjeux. Pour cela, je lis de nombreux articles et newsletters, que je vous recommande chaudement :
- Mute, la newsletter tech éthique de Chut!
- La newsletter TechTrash
- La newsletter Hallu World
- Le blog de Latitudes
- Le média des e-novateurs
Conclusion
Vous l’aurez compris, je ne me positionne pas à 100% contre l’IA. Malgré les très nombreuses problématiques liées à l’utilisation de l’IA générative, je suis convaincue qu’il existe aussi des cas d’usages positifs. Elle fait parfois gagner un temps précieux, et surtout elle devient omniprésente dans notre quotidien. C’est pourquoi je pense qu’il est quand même important de “monter dans le train” pour ne pas être complètement dépassé·e d’ici quelques années, notamment dans le monde professionnel. Mais il est essentiel de connaître les différents enjeux, et savoir l’utiliser avec discernement.