Les sénateurs proposent 32 milliards de dollars de dépenses en IA sans surveillance réglementaire ferme – Computerworld
Ritu Jyoti, vice-présidente du groupe IDC pour la recherche sur l’IA, a déclaré qu’il est important de noter que la feuille de route ne propose pas spécifiquement de législation réelle autour de l’IA, « mais le document sert davantage à s’impliquer dans de nombreuses idées générales ».
« Comme nous le savons tous, l’industrie de l’IA évolue plus rapidement que le reste du secteur technologique et dépasse le gouvernement fédéral de plusieurs ordres de grandeur », a déclaré Jyoti. « Même si les priorités énumérées dans le document sont judicieuses, on peut se demander si des mesures concrètes pourraient être prises dans un délai prévisible. Peut-être que des conseils pratiques concernant les problèmes de droits d’auteur et qui nécessiteraient immédiatement des évaluations de sécurité pour tous les modèles d’IA actuels et futurs auraient été bien.
En mars, l’Union européenne a adopté la première loi globale sur l’IA au monde, visant à réglementer les fabricants et les fournisseurs de technologies d’IA. Le Loi sur l’IA de l’Union européenne a reçu un vote extrêmement favorable. La loi a créé un certain nombre de garanties sur l’IA à usage général, limite l’utilisation de systèmes d’identification biométrique par les forces de l’ordre, interdit la notation sociale en ligne et l’IA pour manipuler ou exploiter les vulnérabilités des utilisateurs, et donne aux consommateurs le droit de déposer une plainte et d’obtenir des « explications significatives ». des fournisseurs d’IA.
Aux États-Unis, le groupe de travail bipartisan sur l’IA du Sénat – composé des sénateurs Schumer, Mike Rounds (R-SD), Martin Heinrich (D-NM) et Todd Young (R-IN) – a publié une feuille de route politique sur l’IA résumant leurs conclusions. Le rapport présente également des sujets politiques qui, selon le groupe, méritent d’être examinés par un comité bipartisan au Congrès.
Le groupe de travail sur l’IA n’est pas le premier à tenter de lutter contre le rythme rapide du développement et de l’adoption de l’IA générative (genAI) et de l’IA en général. En février, l’Institut national américain des normes et de la technologie (NIST) a recruté plus de 200 entreprises et organisations pour participer au AI Safety Institute Consortium (AISIC) afin d’élaborer des lignes directrices visant à garantir la sécurité des systèmes d’IA.
Amazon.com, l’Université Carnegie Mellon, l’Université Duke, la Free Software Foundation et Visa sont tous membres de l’AISIC, ainsi que plusieurs développeurs majeurs d’outils d’IA, notamment Apple, Google, Microsoft et OpenAI.