California AI bill SB 1047 aims to prevent AI disasters, but Silicon Valley warns it will cause one

Le projet de loi SB 1047 de Californie sur l’intelligence artificielle se propose de limiter les risques liés à l’IA, mais la Silicon Valley craint qu’il en génère un.

L’intelligence artificielle fait rêver, mais inquiète également. Des législateurs californiens ont ainsi choisi de prendre les devants en votant des mesures de protection pour éviter la survenue d’un futur dystopique où les systèmes d’IA tueraient des individus ou seraient utilisés pour lancer des cyberattaques dévastatrices. Le projet de loi SB 1047, adopté récemment par les élus californiens, vise à anticiper et à empêcher des catastrophes dues à l’IA.

Toutefois, cette abyssale tentative législative, qui met l’accent sur la sécurité technologique, suscite de vives controverses, particulièrement au sein de la Silicon Valley. Les partisans du texte assurent qu’il est nécessaire de prévenir les risques liés à l’IA sur le plan fédéral tandis que ses détracteurs affirment qu’il est un frein à l’innovation et une entrave à la liberté d’expression.

Le principal enjeu de SB 1047 est d’éviter que l’utilisation de grands modèles d’IA n’entraîne des dommages dits « critiques » à l’humanité. Ces dommages pourraient par exemple se matérialiser par l’utilisation d’un modèle d’IA pour créer une arme entraînant des dégâts massifs, orchestrer une cyberattaque coûtant plus de 500 millions de dollars.

Ces règles ne concerneraient que les modèles d’IA les plus importants en termes d’investissement et d’utilisation de ressources. Elles toucheraient essentiellement les entreprises qui ont développé des produits d’IA publics suffisamment importants pour répondre à ces exigences, comme les géants de la technologie OpenAI, Google et Microsoft.

La législation envisage également la mise en place de protocoles de sécurité pour empêcher une utilisation malveillante de ces produits d’IA, dont un bouton permettant de tout arrêter d’un coup. Elle impose également de procéder à des tests en fonction des risques potentiels spécifiques à chaque modèle d’IA.

A lire également  Amazon recrute les créateurs de la start-up spécialisée en robotique et en intelligence artificielle Covariant

La Frontier Model Division (FMD), une nouvelle agence californienne, serait chargée de veiller à l’application de ces règles. Le non-respect de ces dispositions pourrait conduire le procureur général de Californie à engager une action civile contre le développeur en faute, avec des pénalités substantielles à la clé. Des protections pour les lanceurs d’alerte sont également prévues.

La bataille entre les supporters et les opposants du texte risque d’être longue et acharnée. Elle soulève des questions éthiques et juridiques de taille quant à l’avenir de l’intelligence artificielle et sa réglementation. Quoi qu’il en soit, l’avènement de cette loi pourrait marquer un tournant décisif dans l’histoire de l’IA, et son fébrile débat entre avancée technologique et sécurisation des usages.

Yohann G.