Groupe d’action QuitGPT revendique 1,5 million d’utilisateurs boycottant OpenAI après son accord avec le Pentagone


Principaux renseignements

  • Le groupe d’action QuitGPT appelle les utilisateurs à annuler leur abonnement ChatGPT à la suite d’un accord entre OpenAI et le ministère américain de la Défense.
  • Auparavant, le concurrent Anthropic a refusé un contrat similaire pour des raisons éthiques. L’entreprise craignait en effet de saper les valeurs démocratiques.
  • C’est pourquoi la campagne recommande des assistants IA alternatifs et organise des manifestations physiques pour contester la position dominante d’OpenAI sur le marché.

Un mouvement de protestation croissant incite les utilisateurs à résilier leur abonnement au célèbre chatbot ChatGPT, selon Euronews. Cette campagne en ligne contre OpenAI gagne en ampleur après une impasse notable entre l’entreprise d’IA Anthropic et le ministère américain de la Défense.

Contrats militaires

Le mouvement s’appelle QuitGPT et affirme que plus de 1,5 million de personnes ont déjà agi. Ces individus ont annulé leurs abonnements, partagé des messages de boycott sur les réseaux sociaux ou se sont inscrits via le site web de la campagne. Cette popularité croissante fait suite aux informations selon lesquelles Sam Altman, le dirigeant d’OpenAI, a conclu un accord pour déployer ses modèles au sein de réseaux militaires américains classifiés.

La semaine dernière, Dario Amodei, le dirigeant d’Anthropic, a indiqué qu’il ne pouvait pas accepter avec une conscience tranquille la demande du Pentagone d’obtenir un accès illimité aux systèmes d’IA de son entreprise. Amodei a écrit que l’IA peut saper les valeurs démocratiques au lieu de les défendre dans un nombre restreint de cas. Certaines applications dépassent simplement les limites de ce que la technologie actuelle peut accomplir de manière sûre et fiable.

Anthropic, le créateur du chatbot Claude, refuse ainsi de fournir sa technologie pour un nouveau réseau militaire interne des États-Unis. L’entreprise risquait par cet acte de perdre un contrat de 167 millions d’euros. Le ministère avait attribué ce contrat en juillet de l’année dernière pour développer des capacités d’IA avancées pour la sécurité nationale américaine.

Le cap pragmatique d’OpenAI

Après l’échec des négociations entre Anthropic et le gouvernement américain, Sam Altman a annoncé qu’OpenAI concluait son propre accord avec le Pentagone. Cette déclaration survient juste après que le président américain Donald Trump a ordonné aux agences fédérales d’abandonner immédiatement la technologie d’Anthropic. Concrètement, le dirigeant a publié un message sur X le 28 février pour confirmer le déploiement de ses modèles à des fins militaires. De plus, il a précisé que le ministère américain de la Défense témoignait d’un profond respect pour la sécurité et cherchait un partenariat visant le meilleur résultat possible.

Alternatives à ChatGPT

La campagne de boycott accuse OpenAI de placer le profit au-dessus de la sécurité publique. Dans un communiqué, QuitGPT dénonce ainsi un accord corrompu. Le groupe d’action avertit que l’entreprise expose le public à une IA mortelle pour un simple gain financier. Selon les organisateurs, OpenAI autorise désormais le Pentagone à utiliser sa technologie pour tout objectif légal, y compris la surveillance de masse et les armes autonomes.

Par ailleurs, la campagne affirme que de nombreux utilisateurs considèrent à tort ChatGPT comme l’unique assistant IA viable. C’est pourquoi l’organisation incite le public à migrer vers des plateformes respectueuses de la vie privée ou des alternatives open-source telles que Confer, Alpine et Lumo. Des concurrents commerciaux comme Gemini de Google et Claude d’Anthropic reçoivent également une recommandation. En revanche, le groupe d’action déconseille fortement l’usage de Grok, l’IA d’Elon Musk. Enfin, le mouvement organise aujourd’hui une manifestation physique devant le siège d’OpenAI à San Francisco.

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus