Selon 18 anciens et actuels employés de Google qui ont parlé à Bloomberg(opens in a new tab), la volonté de concurrencer ChatGPT d’OpenAI et Bing, alimenté par l’IA, a pris le dessus sur les considérations éthiques. Vous l’avez peut-être remarqué vous-même si vous avez essayé Bard, mais le chatbot d’IA est enclin à l’inexactitude. Selon le rapport, Bard a donné des conseils dangereux sur la façon d’atterrir un avion. Un autre employé a déclaré que les réponses concernant la plongée sous-marine « entraîneraient probablement des blessures graves, voire mortelles ».
Google, qui a dominé le marché des moteurs de recherche, se trouve dans une position précaire : il doit d’une part repousser les concurrents de l’IA et d’autre part conserver sa position de leader dans le domaine de la technologie. Malgré les craintes que le lancement d’un grand modèle de langage (LLM) mal conçu ne produise des réponses nuisibles, offensantes ou inexactes, Google s’efforce d’intégrer Bard et l’IA générative dans des outils destinés aux consommateurs. Et toute réticence de la part des responsables de la sécurité et de l’éthique est considérée comme un frein à la nouvelle priorité de Google. « Les employés responsables des implications sécuritaires et éthiques des nouveaux produits ont reçu l’ordre de ne pas se mettre en travers ou d’essayer de tuer les outils d’IA générative en cours de développement », ont déclaré des employés à Bloomberg. L’équipe chargée de l’éthique est désormais « désemparée et démoralisée », selon d’anciens et d’actuels employés.
Avant qu’OpenAI ne lance ChatGPT en novembre 2022, l’approche de Google en matière d’IA était plus prudente et moins orientée vers le consommateur, travaillant souvent en arrière-plan d’outils tels que Search et Maps. Mais depuis que l’énorme popularité de ChatGPT a suscité un « code rouge(opens in a new tab) » de la part des dirigeants, le seuil de sécurité de Google pour les lancements de produits a été abaissé dans un effort pour rester à la hauteur de ses concurrents en matière d’IA.
Jen Gennai, qui dirige l’équipe chargée de l' »innovation responsable » chez Google, a annulé une évaluation des risques réalisée par son équipe, selon laquelle Bard n’était pas encore prêt. Le raisonnement était le suivant : en considérant Bard comme une « expérience », il pouvait être lancé et commencer à s’améliorer en fonction des réactions du public. De même, Google a annoncé des fonctions d’IA pour Docs et Slides. Mais cette approche a eu un effet négatif. Bard est largement considéré comme un produit inférieur à ChatGPT, et un jour après l’annonce de Google pour Docs et Slides, Microsoft a présenté une intégration complète de l’IA dans ses outils de travail – pas seulement Microsoft Word et PowerPoint, mais toute la suite Office, y compris Teams et Outlook. Samsung envisage également de remplacer Google par Bing comme moteur de recherche par défaut sur les appareils mobiles.
Depuis que Google a supprimé la célèbre phrase « Don’t be evil » de son code de conduite, il ressemble de plus en plus à son ennemi Meta, dont l’ancienne devise interne « Move fast and break things » semble être devenue le mantra officieux de toute la Silicon Valley. Et lorsque l’éthique et la sécurité sont compromises au service de la rapidité, c’est la confiance du public qui risque d’être brisée.