RÉSUMÉ ANALYTIQUE:
En tant qu'application grand public à la croissance la plus rapide de l'histoire, avec plus de 100 millions d'utilisateurs actifs par mois, ChatGPT a attiré l'attention des législateurs et des analystes politiques du monde entier.
En raison de la vague d'intérêt pour la technologie, la National Telecommunications and Information Administration (NTIA) des États-Unis demande l'avis du public sur la meilleure façon de créer des mesures de responsabilisation pour l'IA.
“De la même manière que les audits financiers ont créé la confiance dans l'exactitude des états financiers des entreprises, les mécanismes de responsabilité pour l'IA peuvent aider à garantir qu'un système d'IA est digne de confiance”, a déclaré Alain Davidson, chef de l'Administration nationale des télécommunications et de l'information des États-Unis (NTIA).
La NTIA a l'intention de mettre en place des garde-fous qui permettront aux agences gouvernementales d'évaluer si les plates-formes d'IA fonctionnent comme les entreprises le prétendent, si elles sont sûres, si elles ont des résultats discriminatoires ou “reflètent des niveaux inacceptables de partialité”, entre autres choses.
La Maison Blanche avait précédemment publié un "guide" sur le développement des systèmes d'IA sous la forme d'une “déclaration des droits " volontaire."Mais les entreprises peuvent ou non se conformer aux directives volontaires.
En Europe, les régulateurs ont proposé un cadre juridique qui catégorise les systèmes d'IA en fonction du niveau de risque qu'ils introduisent. Par exemple, les catégories pourraient avoir des étiquettes telles que risque inacceptable, risque élevé, risque limité et risque minimal.
Cependant, cette proposition a été repoussée par les entreprises technologiques. Certains ont noté que parce que les chatbots ont plus d'une utilité, ils ne peuvent pas simplement être classés comme à risque limité ou à risque élevé.
Une activité de chatbot à faible risque peut consister à demander à ChatGPT de publier un message sur les réseaux sociaux sur un sujet spécifique, tandis qu'une activité à haut risque qui pourrait se produire via le même chatbot consiste à créer des logiciels malveillants ou même une menace zero day.
Aux États-Unis, “we nous n'avons pas les garde-fous en place, les lois dont nous avons besoin, l'éducation du public ou l'expertise du gouvernement pour gérer les conséquences des changements rapides qui se produisent actuellement”, dit Merve Hickok a écrit:, présidente et directrice de recherche au Center for AI and Digital Policy.
Contrairement à la pensée populaire, de bons garde-corps ne devraient sans doute pas réduire les capacités des utilisateurs. Au lieu de cela, ils devraient promouvoir l'innovation tout en empêchant des résultats néfastes dans le monde réel. L'IA a le potentiel d'alimenter de profondes améliorations sociales, mais seulement si nous permettons cette possibilité.
Certains experts craignent que la conversation actuelle autour de l'IA n'entraîne une stagnation plutôt qu'une innovation. Par exemple, le demandé moratoire sur l'IA est sans doute une mesure extrême, car elle adopte une position du tout ou rien.
Aux yeux de certains analystes, le succès de l'IA dépend d'un modèle de gouvernance flexible qui intègre des solutions pratiques – sans étouffer l'innovation ni accélérer l'innovation au détriment de la connexion humaine et du bien-être.
Pour plus d'informations sur l'IA, ChatGPT et les politiques, veuillez consulter CyberTalk.org couverture passée du leadership éclairé. Enfin, consultez le CyberTalk.org bulletin d'information. Inscrivez-vous dès aujourd'hui pour recevoir chaque semaine des articles de presse, des meilleures pratiques et des analyses d'experts de premier ordre.
La poste Ce qu'il faut savoir: Les nouvelles règles de l'IA aux États-Unis apparu en premier sur CyberTalk.