« Poverty porn » : les images générées par l’IA représentant l’extrême pauvreté gagnent en popularité parmi les organisations d’aide


Principaux renseignements

  • Les images générées par l’IA représentant l’extrême pauvreté sont de plus en plus populaires parmi les organisations d’aide et les ONG du secteur de la santé.
  • Ces images perpétuent des stéréotypes néfastes en présentant des scènes d’enfants mal nourris, de terre craquelée et de victimes de violences sexuelles.
  • Les critiques soutiennent que l’utilisation d’images fabriquées pour la communication en matière de santé mondiale soulève des questions éthiques concernant la perpétuation des préjugés et la déformation de la compréhension de la pauvreté par le public.

L’utilisation d’images générées par l’IA décrivant l’extrême pauvreté est de plus en plus fréquente parmi les organisations d’aide et les ONG de santé, ce qui suscite des inquiétudes quant à la résurgence de la « pornographie de la pauvreté ». Ces images perpétuent souvent des stéréotypes néfastes en présentant des scènes d’enfants mal nourris, de terre craquelée et de victimes de violences sexuelles. C’est ce que révèle une nouvelle étude.

Perpétuation des stéréotypes

Les chercheurs ont constaté une augmentation significative de la disponibilité de ces images générées par l’IA sur les sites web de photos d’archives les plus populaires. Ces images sont facilement disponibles à l’achat à faible coût, ce qui attire les organisations confrontées à des contraintes budgétaires. La facilité et le caractère abordable de la génération d’images par l’IA contribuent à son adoption croissante. Les organisations peuvent contourner les complexités et les considérations éthiques associées à l’utilisation de photographies réelles, telles que l’obtention du consentement des sujets.

Les critiques affirment que ces images générées par l’IA renforcent les stéréotypes nuisibles sur les pays en développement et leurs populations. Ils soulignent la nature raciale de nombre de ces images, qui représentent souvent des Africains ou des Asiatiques dans des situations stéréotypées et déshumanisantes. Bien que certaines plateformes reconnaissent la possibilité de biais dans les contenus générés par l’IA, elles placent souvent les consommateurs devant la responsabilité d’évaluer de manière critique les images qu’ils utilisent. D’autres affirment que l’élimination des préjugés est un défi permanent, qui s’apparente à « essayer d’assécher l’océan ».

Débat autour de l’utilisation dans la communication sur la santé mondiale

L’utilisation d’images générées par l’IA dans la communication sur la santé mondiale a suscité un débat. Certaines organisations ont défendu leur utilisation, arguant qu’elle protège la vie privée et la dignité des personnes réelles. Cependant, les critiques s’inquiètent des implications éthiques de l’utilisation d’images fabriquées pour représenter des problèmes sociaux complexes. Ils craignent que la prolifération de ces images n’enracine davantage les stéréotypes néfastes et ne contribue à une compréhension déformée de la pauvreté et de ses réalités.

Le fait que les images générées par l’IA puissent perpétuer des préjugés soulève des inquiétudes quant à leur impact plus large. Comme ces images circulent en ligne et sont utilisées pour former de futurs modèles d’IA, elles risquent d’amplifier les préjugés existants et de renforcer les représentations inexactes des populations vulnérables.

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus