Anthropic met en garde : Un appel urgent aux gouvernements sur les dangers mortels de l'IA
2024-11-04
Auteur: Marie
La société Anthropic, créatrice de Claude AI, tire la sonnette d'alarme : « La fenêtre de prévention proactive des risques se referme rapidement. » Les avancées technologiques en matière d'intelligence artificielle ont été rapides et remarquables, touchant des secteurs variés tels que l'ingénierie logicielle, la cybersécurité, et même la recherche scientifique. Cependant, ces succès sont également accompagnés de dangers potentiels, attirant des intérêts malveillants.
Anthropic a averti que les gouvernements doivent se préparer à affronter des menaces liées aux cybersécurités, ainsi qu'aux risques CBRN (chimiques, biologiques, radiologiques et nucléaires) que peuvent poser des modèles d'IA avancés. Ces systèmes sont désormais capables d'effectuer des tâches de manière efficace qui pourraient être utilisées dans le cadre de la cybercriminalité et de la fabrication d'armes de destruction massive.
Dans une démarche proactive, Anthropic préconise une réglementation « chirurgicale » de l'IA, inspirée de sa propre politique de mise à l'échelle responsable, ou RSP (Responsible Scaling Policy). Cette politique vise à identifier, évaluer et atténuer les risques catastrophiques d'une manière proportionnée, en fonction du niveau de capacité atteint par les modèles.
Pour cela, le cadre réglementaire suggéré devrait être construit sur trois piliers fondamentaux : la transparence, la promotion de meilleures pratiques en matière de sécurité et de sûreté, et la concentration des mesures pour garantir leur efficacité.
Anthropic appelle à une coopération collective pour éviter les dérives potentielles de l'intelligence artificielle. Dans un plaidoyer visible sur son blog, l'entreprise demande aux décideurs politiques, aux acteurs de l'IA, aux défenseurs de la sécurité, et à la société civile de collaborer intensivement dans les 18 mois à venir afin de élaborer un cadre réglementaire opérationnel, respectant les principes de sa RSP.
En outre, Anthropic met en garde contre les conséquences désastreuses d'une absence d'action ou d'une réaction gouvernementale trop lente. Cela pourrait conduire à « le pire des deux mondes », caractérisé par une réglementation mal conçue qui étoufferait l'innovation sans prévenir efficacement les risques.
Les experts s'accordent à dire que le temps presse pour établir des garde-fous solides face à la montée incessante de l'IA, qui pourrait transformer notre manière de vivre, découvrir et innover. Assurément, ce type d'alerte est d'autant plus pertinent alors que Claude AI est reconnu pour son engagement éthique.
Récemment, cette IA a même refusé de répondre à des questions sur des sujets controversés, soulignant encore davantage sa position sur l'éthique et la sécurité. Cela soulève un débat important : l'intelligence artificielle pourrait-elle, à l'avenir, devenir un vecteur de désinformation, et comment garantir que son utilisation ne se transforme pas en une menace pour la société ? Les experts s'alarment face au risque que l'IA, dans ses réponses, propage des erreurs, entraînant ainsi une mauvaise éducation des utilisateurs. La vigilance s'impose, alors que le développement de l'IA ne montre aucun signe de ralentissement.