Les dysfonctionnements du Gemini de Google suscitent des préoccupations majeures

Table des matières

Suite aux changements apportés à Gemini de Google, l’IA générateur d’images a montré des dysfonctionnements qui ont interpellé les internautes. Elon Musk a alors réagi en inculpant Google de lancer une campagne « woke raciste ». La firme américaine tente aujourd’hui de s’expliquer concernant les images développées par son IA, tout en retirant provisoirement son créateur d’images.

Depuis quelques années, les IA générateurs d’images font face à un challenge assez délicat. Ils doivent  reproduire des images sur la base des données dont ils sont nourris. Certains outils de conception d’images comme Midjourney ou DALL-E ont des difficultés à concevoir les représentations demandées.  

Pour le générateur d’images de Google, les paramétrages effectués semblent être en faute pour les anomalies. Le CEO de X a rebondi et mentionne la promotion du « woke raciste ». Alors que les fautes découlent plutôt du manque d’exactitude au niveau des réglages. Toutefois, la société américaine précise que cela ne présente en aucun cas de la discrimination.   

Une révision sur le générateur d’images Gemini

Récemment, Gemini, le générateur d’images de Google a conçu des images se révélant inexactes. De nombreux internautes de cette plateforme ont noté certains résultats absurdes. Le géant américain de l’Internet s’est exprimé concernant les dysfonctionnements de Gemini :

« Nos réglages visant à garantir que Gemini affiche un éventail de personnes n’ont pas pris en compte les cas qui ne devraient manifestement pas afficher d’éventail. Deuxièmement, au fil du temps, le modèle est devenu beaucoup plus prudent que nous ne l’avions prévu ».

Avec les erreurs signalées, Google a directement réagi en l’ajustant pour éviter d’autres écueils liés à l’IA. De plus, la société souhaite équilibrer de manière plus juste les images créées par son intelligence artificielle à travers des corrections. Ces ajustements ne devront pas seulement affecter l’aspect visuel, mais influer sur la gestion administrative du projet IA.

En attendant, l’entreprise américaine a préféré effectuer le retrait temporaire de la fonction de Gemini afin de corriger les problèmes. L’évolution de Gemini souligne ainsi l’importance d’améliorer les outils d’IA pour prévenir toute controverse et distorsion.

Quelques exemples d’absurdités commises par Gemini

En dépit des initiatives de Google pour réajuster son projet, la fonction création d’image de Gemini a fait l’objet de nombreuses critiques. Les internautes ont rapporté les erreurs effectuées par l’IA, notamment des anomalies sur l’histoire et d’autres représentations absurdes. Ce sont :

  • Un excès dans la représentation des diversités ;
  • Des distorsions historiques ;
  • Le rejet de la représentation des personnes caucasiennes, etc.

Gemini a pris soin de promouvoir la variété dans toutes ses illustrations, mais peut-être de manière trop excessive. Parmi celles-là, on peut citer la représentation de soldats nazis qui ont diverses origines. En réponse à « Peux-tu créer une image d’un soldat allemand en 1943 ? », l’IA a montré des personnes de race différente. Il s’agit d’un individu de couleur et d’une femme asiatique se tenant aux côtés de soldats de type caucasien. L’IA a également montré un autre cas révélateur des préjugés de diversité avec une représentation de ses fondateurs en Asiatiques.

Il arrive que la plateforme de génération d’images refuse de répondre à certaines demandes avec des requêtes incluant les personnes « à la peau blanche ». Elle affiche même un message d’erreur, interprétant à tort  des questions assez banales. Cela peut souligner les défis encore en cours pour ce projet de Google. Défis qui impacteront inéluctablement sur la gestion administrative.

Cet article vous a-t-il été utile ?

Note moyenne 0 / 5. Nombre de votes 0

Actualité du portage salarial