Les leaders technologiques et les experts appellent à une pause de 6 mois dans l’expérimentation de l’IA

Les leaders technologiques et les experts appellent à une pause de 6 mois dans l’expérimentation de l’IA

Les leaders technologiques et les experts appellent à une pause de 6 mois dans l’expérimentation de l’IA. Ils s’inquiètent des événements (trop) tumultueux dans cette zone et du manque de sécurité autour.

La lettre ouverte, signée par des leaders technologiques et d’autres chercheurs de haut niveau en IA, appelle les laboratoires et les entreprises d’IA à  » suspendre immédiatement  » leurs travaux. Les signataires, dont Steve Wozniak et Elon Musk, aimeraient faire une pause d’au moins six mois dans la production de technologies basées sur GPT-4 pour tirer parti des systèmes d’IA existants et permettre aux gens de s’adapter et de s’assurer qu’ils peuvent profiter à tous. La lettre ajoute que la réflexion et la prévoyance sont essentielles pour sécuriser les systèmes d’IA.

Les leaders technologiques et les experts appellent à une pause de 6 mois dans l’expérimentation de l’IA

La référence au GPT-4, un modèle OpenAI capable de répondre par du texte à des messages écrits ou visuels, intervient alors que les entreprises tentent déjà de développer des systèmes de chat sophistiqués utilisant cette technologie. Microsoft, par exemple, a récemment confirmé avoir repensé son moteur de recherche Bing pour tirer parti du modèle GPT-4. Google, pour sa part, a récemment lancé Bard, son propre système d’intelligence artificielle générative basé sur LaMDA. Ce problème existe depuis longtemps, mais les entreprises de technologie de course sont aujourd’hui encore plus inquiétantes.

« Malheureusement, ce niveau de planification et de gestion n’existe pas, les laboratoires d’IA travaillent dur pour développer et déployer des cerveaux virtuels que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de quelque manière que ce soit. Coffre-fort », peut-on lire dans le spécial.

Ils s’inquiètent de l’évolution (trop) rapide de la zone et de l’insécurité autour

Cette lettre a été publiée par le Future of Life Institute (FLI), une organisation engagée à réduire les risques et l’utilisation abusive des nouvelles technologies. Auparavant, Elon Musk avait fait don de 10 millions de dollars au FLI pour étudier la sécurité de l’IA. Outre Steve Wozniak et ce dernier, il existe de grands noms dans le domaine de l’IA tels que le président du Center for AI and Digital Policy Mark Rothenberg, le physicien du MIT et président du FLI Max Tegmark et l’écrivain Yuval Noah Harari. Ce dernier a également écrit un éditorial du New York Times la semaine dernière sur les risques posés par l’IA avec les fondateurs du Center for Humane Technology et d’autres signataires Tristan Harris et Aza Raskin.

Cet appel semble en quelque sorte une suite logique à une enquête de 2022 auprès de plus de 700 chercheurs en apprentissage automatique, qui a révélé que près de la moitié des participants ont déclaré qu’il y avait 10% de chances que les conséquences de l’IA soient «extrêmement mauvaises». jusqu’à l’extinction de l’humanité. Interrogés sur la sécurité de la recherche en IA, 68 % des chercheurs ont répondu qu’il fallait faire plus ou beaucoup plus.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *