Les Googleurs disent que l’IA de Bard est « pire qu’inutile » et que les considérations éthiques sont ignorées
Du point de vue de Google, Bard semble être pressé de concurrencer ChatGPT, et certains Googleurs sont d’accord. Un nouveau rapport de Bloomberg a interrogé 18 employés actuels et anciens, et regorge de commentaires et de préoccupations condamnant le fait que les équipes d’éthique de l’IA soient «privées de leurs droits et démoralisées» afin que Google puisse expulser Bard.
Selon le rapport, les employés de Google ont été invités à tester une version préliminaire de Bard pour leurs commentaires, qui ont été largement ignorés afin que Bard puisse se lancer plus rapidement. Des discussions internes vues par Bloomberg ont qualifié Bard de « digne d’un jiggle » et d’un « menteur pathologique ». Lorsqu’on lui a demandé comment faire atterrir l’avion, il a donné des instructions incorrectes qui auraient conduit à l’accident. Un membre du personnel a demandé des instructions de plongée et a reçu une réponse qui, selon lui, « entraînerait probablement des blessures graves ou la mort ». L’un des employés a décrit les problèmes de Bard dans un article de février intitulé « Bard est pire qu’inutile : s’il vous plaît, ne lancez pas ». Bard a été lancé en mars.
Vous pourriez probablement dire la même chose du concurrent de l’IA que Google poursuit, ChatGPT d’OpenAI. Les deux peuvent donner des informations biaisées ou fausses et halluciner de mauvaises réponses. Google est loin derrière ChatGPT, et la société est paniquée par la capacité de ChatGPT à répondre aux questions que les gens pourraient autrement taper dans les recherches Google. Le créateur de ChatGPT, OpenAI, a été critiqué pour son approche laxiste de la sécurité et de l’éthique de l’IA. Maintenant, Google est dans une situation difficile. Si la seule préoccupation d’une entreprise est de calmer le marché boursier et de rattraper ChatGPT, elle ne pourra probablement pas le faire si cela ralentit les problèmes d’éthique.
Meredith Whittaker, ancienne directrice de Google et présidente de la Signal Foundation, a déclaré à Bloomberg que « l’éthique de l’IA a pris le pas » chez Google, et a déclaré que « si l’éthique n’est pas prioritaire sur le profit et la croissance, elle ne finira pas par fonctionner ». Bloomberg rapporte que les évaluations éthiques de l’IA de Google sont « presque entièrement volontaires » aujourd’hui.
Bien que vous puissiez faire quelque chose chez Google pour essayer de ralentir les publications en raison de problèmes éthiques, cela ne sera probablement pas bon pour votre carrière. Le rapport indique : « L’un des anciens employés a déclaré avoir demandé à travailler sur l’équité dans le machine learning, et il en a été régulièrement dissuadé – au point que cela a affecté leur évaluation des performances. Les managers ont protesté que cela interférait avec leur « vrai travail ». «
Laisser un commentaire