Le Congrès étant peu susceptible d’agir rapidement, la Maison Blanche a récemment appelé les principaux PDG de l’industrie et les a poussés à combler les lacunes sur ce à quoi ressemble une « IA responsable ».
Pour Microsoft, le résultat a été un nouveau plan en cinq points pour réglementer l’IA, axé sur la cybersécurité des infrastructures critiques et un régime de licences pour les modèles d’IA.
Pendant ce temps, Pichai et le PDG d’OpenAI, Sam Altman, ont effectué des tournées similaires à l’étranger, essayant de façonner la conversation sur la réglementation de l’IA en Europe.
Le discours de Smith a été suivi par plus d’une demi-douzaine de législateurs des deux partis.
Google, pour sa part, a publié vendredi un article de blog avec son propre programme politique.
Et l’arrêt de Smith à Washington intervient une semaine après qu’Altman a témoigné devant un comité sénatorial sur la surveillance de l’IA, où les législateurs ont exprimé un large soutien aux idées d’Altman et à sa volonté de travailler avec le Congrès.
représentant Derek Kilmer (D-Wash.), Membre éminent du sous-comité de l’administration de la Chambre sur la modernisation, a assisté à l’événement Microsoft de jeudi et a suggéré que le Congrès devrait écouter attentivement les entreprises développant l’IA.
« Le Congrès n’est pas toujours au courant de ces problèmes technologiques importants », a déclaré Kilmer. Il a suggéré qu’il n’est pas inhabituel pour « les personnes qui ont le plus d’exposition, d’accès et de connaissance de certaines de ces technologies de jouer un rôle actif et d’engager les décideurs politiques sur la manière de réglementer ces technologies ».
« En fin de compte, cependant, les décideurs politiques devront faire preuve d’un jugement indépendant pour faire ce qui est juste pour le peuple américain », a déclaré Kilmer.
Les entreprises ignorent l’idée qu’elles ont le contrôle : lors d’une conversation avec des journalistes après l’événement, Smith a rejeté l’idée que Microsoft, son partenaire commercial OpenAI ou d’autres grandes entreprises sont « aux commandes » lorsqu’il s’agit d’IA fédérale. règles.
« Je ne suis même pas sûr que nous soyons dans la voiture », a déclaré Smith, qui avait précédemment publié un article de blog en février avec des orientations politiques plus abstraites sur l’IA. « Mais nous offrons des points de vue et des suggestions d’itinéraires pour ceux qui conduisent réellement. »
Smith a admis que l’industrie technologique « pourrait avoir des idées plus concrètes » sur la réglementation de l’IA que Washington ne le fait actuellement. Mais il a dit que cela devrait changer au cours des prochains mois.
« Je parie que vous verrez des propositions législatives concurrentes. Nous aimerons probablement certains plus que d’autres, mais c’est la démocratie », a déclaré Smith. « Donc, je ne me soucie pas de toutes les idées venant de l’industrie. »
L’exécutif de Microsoft n’est pas le seul gros bonnet technologique à prendre la route pour tenter de façonner la réglementation de l’IA. Pichai, PDG de Google était en Europe mercredi pour négocier un pacte volontaire sur l’IA avec la Commission européenne alors que le bloc met la touche finale à sa loi sur l’IA.
Et une semaine après sa propre visite de haut niveau à Washington, Altman a effectué sa tournée politique en matière d’IA en Europe. L’exécutif d’OpenAI a déclaré mercredi à un auditoire londonien qu’il existe des « limites techniques » qui pourraient empêcher son entreprise de se conformer à la loi européenne sur l’IA. Il a averti qu’OpenAI pourrait se retirer complètement de l’Europe à moins que des modifications importantes ne soient apportées à la législation.
Russell Wald, directeur des politiques du Stanford Institute for Human-Centered Artificial Intelligence, a récemment déclaré qu’il craignait que certains décideurs politiques, en particulier ceux de Washington, accordent trop d’attention aux propositions de l’industrie technologique en matière de gouvernance de l’IA.
« C’est un peu décevant que … le domaine de l’industrie soit le pur objectif », a-t-il déclaré en marge de l’audience du Sénat de la semaine dernière sur l’utilisation de l’IA par le gouvernement. Wald a suggéré que les universitaires, la société civile et les représentants du gouvernement devraient tous jouer un rôle plus important dans l’élaboration de la politique fédérale en matière d’IA qu’ils ne le sont actuellement.
représentant Ted Lieu (D-Californie), un leader émergent de la réglementation de l’IA qui a également assisté au discours de Smith, a déclaré à POLITICO qu’il était « bien d’entendre les personnes qui ont créé l’intelligence artificielle ». Mais tôt ou tard, a-t-il dit, un plus large éventail de voix devra peser.
« Il est également très important d’entendre l’énorme diversité de points de vue sur l’IA, allant des chercheurs aux groupes de défense – les Américains qui vont être touchés », a déclaré Lieu.
La vision de l’IA de Microsoft
Smith a exhorté Washington à adopter cinq nouvelles recommandations sur la politique d’IA. Certains sont relativement simples – par exemple, la société souhaite que la Maison Blanche fasse pression pour une large adoption du cadre volontaire de gestion des risques liés à l’IA publié plus tôt cette année par l’Institut national des normes et de la technologie. Ce cadre a été au cœur des messages de la Maison Blanche sur les orientations que les entreprises d’IA devraient suivre.
« La meilleure façon d’agir rapidement – et nous devrions agir rapidement – est de s’appuyer sur les bonnes choses qui existent déjà », a déclaré Smith jeudi.
La société a demandé aux législateurs d’exiger des «freins de sécurité» pour les outils d’IA qui contrôlent le fonctionnement des infrastructures critiques, comme les réseaux électriques et les systèmes d’approvisionnement en eau, ce qui garantirait idéalement qu’un humain soit toujours tenu au courant – un point sur lequel le Congrès peut largement s’entendre.
Microsoft a également appelé les décideurs politiques à promouvoir la transparence de l’IA et à garantir que les chercheurs universitaires et à but non lucratif aient accès à une infrastructure informatique avancée – un objectif déclaré de la National AI Research Resource, qui n’a pas encore été autorisé ou financé par le Congrès.
Microsoft souhaite également travailler avec le gouvernement dans le cadre de partenariats public-privé. Plus précisément, l’entreprise souhaite que le secteur public utilise l’IA comme un outil pour relever les « défis sociétaux inévitables ».
Pour le public de DC, Smith a fait référence à l’utilisation de l’IA par Microsoft pour aider à documenter les dommages de guerre en Ukraine, ou comment il peut créer des présentations et d’autres documents pour le lieu de travail.
La partie la plus importante de la proposition de politique de Microsoft appelle à une architecture juridique et réglementaire adaptée à la technologie elle-même. Smith veut « appliquer les lois et réglementations existantes » et créer un régime de licences pour les modèles d’IA sous-jacents.
« Comme Sam Altman l’a dit devant le sous-comité judiciaire du Sénat la semaine dernière, … nous devrions avoir des licences en place, de sorte qu’avant qu’un tel modèle ne soit déployé, l’agence soit informée des tests », a déclaré le président de Microsoft. Cet appel à un régime de licences pour les modèles d’IA avancés a été considéré par les critiques comme un effort de Microsoft et d’OpenAI pour empêcher les petits concurrents de rattraper leur retard.
Microsoft demande également aux développeurs de puissants modèles d’IA de « connaître le cloud » où leurs modèles sont déployés et accessibles dans le but de gérer les risques de cybersécurité entourant leur technologie.
Smith souhaite également que des règles de divulgation concernant le contenu généré par l’IA empêchent la propagation de la désinformation – un autre objectif souvent déclaré par certaines des principales voix du Congrès, y compris Rep. Nancy Macé (RS.C.).
Alors que Smith a déclaré que son entreprise s’inscrivait dans « chaque couche » de l’écosystème de l’IA, il a déclaré que sa nouvelle proposition de réglementation « ne concerne pas seulement les grandes entreprises comme Microsoft ». Par exemple, Smith a suggéré que les startups et les petites entreprises technologiques joueraient toujours un rôle clé dans le développement d’applications compatibles avec l’IA.
Politico En2Fr