Google Gemini, nouveau cheval de Troie du wokisme dans l’intelligence artificielle

google gemini IA

Tel est pris qui croyait prendre. Alors que le géant Google a tout récemment lancé son IA conversationnelle et de génération d’images « Google Gemini », lancée le 7 décembre dernier pour concurrencer ChatGPT et le reste du secteur, cette nouvelle IA fait déjà polémique. Se voulant inclusive et diversitaire, Google a fait en sorte de se concentrer « sur les communautés ou les groupes de personnes historiquement marginalisés qui peuvent subir des conséquences injustes de l'IA ». Mais en voulant éviter les stéréotypes négatifs attachés à telle ou telle ethnie, Google s’est pris les pieds dans le tapis et a été dépassé par sa gauche. Demandant à l’intelligence artificielle de lui générer l’image d’un soldat allemand en 1943, un internaute s’est insurgé de voir représenter un homme noir et une femme asiatique.

Une erreur historique et une représentation erronée qui a poussé Google à vite réagir et mettre fin (temporairement) à son générateur d’images assistées. Il y a décidément des inclusions plus acceptables que d’autres…

Google n’aime pas les Blancs ?

Diversité et inclusion oui, mais pas pour tous. Touchant négativement les « communautés ou les groupes de personnes marginalisées », la réponse de Google a été rapide. L’aurait-elle été dans le cas contraire ? En effet, l’obsession de Google pour représenter des profils ethniques différents a eu pour conséquence d’invisibiliser les personnes caucasiennes. De nombreux internautes ont questionné la firme sur son invisibilisation quasi systématique de toutes personnes de type européen où issues de cet imaginaire. Ainsi, les Vikings deviennent noirs, les pères fondateurs des États-Unis sont Squaw, le pape un Indien d'Amérique et les chevaliers du Moyen Âge tout droits issus de l’imaginaire de Maître Gims. Pour cette réécriture de l’imaginaire historique européen et américain, pas un mot, pas une ligne de Google.

Une IA woke dans son essence

On ne peut reprocher à Google d’avancer masqué. Dans son dossier sur l’état d’avancement des principes de l’IA, l’entreprise américaine détaille très concrètement son agenda inclusif. « Les algorithmes et les ensembles de données d’IA peuvent refléter, renforcer ou réduire les préjugés injustes », fait remarquer le géant américain. Alors, pour pallier d’éventuels « impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l’origine ethnique, le sexe, la nationalité, le revenu, l’orientation sexuelle, les capacités et les convictions politiques ou religieuses », Google a mis plusieurs protocoles en place, censés garantir la sempiternelle inclusion.

Aussi apprend-on que « le sexe est un trait particulièrement difficile à décrire à partir d'une image, car le sexe d'une personne peut ne pas être évident d'après son apparence ». Première nouvelle... La théorie du genre est même intégrée au système de reconnaissance vocale : « L'équipe a incorporé un modèle de langage visuel Google DeepMind, fortement personnalisé pour ce cas d'utilisation, avec plusieurs séries de commentaires de personnes malvoyantes et de personnes trans ou non binaires. » C’est vrai, il est plus difficile de reconnaître le sexe de quelqu’un par sa simple apparence que la supposée « identité de genre » d’un individu par sa voix….

Julien Tellier
Julien Tellier
Journaliste stagiaire à BV

Vos commentaires

15 commentaires

  1. En temps qu’ancien ingénieur informaticien et directeur de service informatique, vous nous gavez avec l’IA.
    Il n’y a rien d’artificiel tout est bien réel. Il y a derrière tout cela un vrai travail d’analyse puis un dur travail de programmation, et enfin de nombreuses validations pour arriver à un produit fini, en principe. Et j’ai fait court.

  2. Bien sûr les algorithmes injectés dans le logiciel ne font que refléter l’déologie des constructeurs du système : il serait édifiant de comparer les solutions proposées sur un même thème par deux éditeurs d’ I.A …… .

    • j’ai essayé Qwant, résultats pauvres et limités (pour mes champs de recherche), quelques dizaines pour plusieurs dizaines de milliers surGoogle. Je suis donc revenue à Google

  3. N’en déplaise à la bien-pensance stupide qui se dit progressiste… L’IA sera très vite un retour à l’esclavage de l’Humanité. Au service exclusif de ces GAFAM et autres puissances subversives. Déjà, plus besoin de médecins … un ordinateur organise à distance les prescriptions très économes de dépenses au bénéfice des assurances-santé ! L’IA sera la peste noire de l’Humanité de demain matin.

  4. Ridicule ! Pathétique même ! Mais dans quel monde veulent ils nous faire vivre ? Pas de soucis, les Gafas se sabordent tous seuls.

    • Il faut dire haut ET fort que des coucous poli-tocards veulent s’appuyer de plus en plus sur l’IA ! … A commencer par « l’Attal-à-macron » qui a pour projet de mettre ce venin au sein de l’Education Nationale pour ne pas dire « au centre » ! …

      Tout comme pour l’emballement au sujet des éoliennes qui ont « une fabrication » électrique aléatoire ( et non prétendument « renouvelable » ) , les fanatiques de l’IA vont développer leur délire idéologique qui sera elle aussi destructrice à courte, moyenne et très longue durée en effaçant durablement la véritablement l’intelligence et la réflexion ! …

    • Il parait que c’est un astéroïde qui a détruit les dinosaures. Nous, nous avons mieux! Nous avons macron pour faire disparaitre les Français.

Commentaires fermés.

Pour ne rien rater

Les plus lus du jour

L'intervention média

Les plus lus de la semaine

Les plus lus du mois