L’intelligence artificielle fait rêver, mais inquiète également. Des législateurs californiens ont ainsi choisi de prendre les devants en votant des mesures de protection pour éviter la survenue d’un futur dystopique où les systèmes d’IA tueraient des individus ou seraient utilisés pour lancer des cyberattaques dévastatrices. Le projet de loi SB 1047, adopté récemment par les élus californiens, vise à anticiper et à empêcher des catastrophes dues à l’IA.
Toutefois, cette abyssale tentative législative, qui met l’accent sur la sécurité technologique, suscite de vives controverses, particulièrement au sein de la Silicon Valley. Les partisans du texte assurent qu’il est nécessaire de prévenir les risques liés à l’IA sur le plan fédéral tandis que ses détracteurs affirment qu’il est un frein à l’innovation et une entrave à la liberté d’expression.
Le principal enjeu de SB 1047 est d’éviter que l’utilisation de grands modèles d’IA n’entraîne des dommages dits « critiques » à l’humanité. Ces dommages pourraient par exemple se matérialiser par l’utilisation d’un modèle d’IA pour créer une arme entraînant des dégâts massifs, orchestrer une cyberattaque coûtant plus de 500 millions de dollars.
Ces règles ne concerneraient que les modèles d’IA les plus importants en termes d’investissement et d’utilisation de ressources. Elles toucheraient essentiellement les entreprises qui ont développé des produits d’IA publics suffisamment importants pour répondre à ces exigences, comme les géants de la technologie OpenAI, Google et Microsoft.
La législation envisage également la mise en place de protocoles de sécurité pour empêcher une utilisation malveillante de ces produits d’IA, dont un bouton permettant de tout arrêter d’un coup. Elle impose également de procéder à des tests en fonction des risques potentiels spécifiques à chaque modèle d’IA.
La Frontier Model Division (FMD), une nouvelle agence californienne, serait chargée de veiller à l’application de ces règles. Le non-respect de ces dispositions pourrait conduire le procureur général de Californie à engager une action civile contre le développeur en faute, avec des pénalités substantielles à la clé. Des protections pour les lanceurs d’alerte sont également prévues.
La bataille entre les supporters et les opposants du texte risque d’être longue et acharnée. Elle soulève des questions éthiques et juridiques de taille quant à l’avenir de l’intelligence artificielle et sa réglementation. Quoi qu’il en soit, l’avènement de cette loi pourrait marquer un tournant décisif dans l’histoire de l’IA, et son fébrile débat entre avancée technologique et sécurisation des usages.
- Des problèmes de « hallucinations » détectés dans l’outil de transcription Whisper d’OpenAI, rapportent les chercheurs. - octobre 27, 2024
- SandboxAQ d’Eric Schmidt envisage une valorisation de 5 milliards de dollars pour son projet audacieux lié à l’IA et à l’informatique quantique de Google. - octobre 19, 2024
- Les caractéristiques d’Apple Intelligence peuvent aussi synthétiser pour vous les textes de séparation - octobre 11, 2024