Un groupe de 18 pays vient de signer un accord visant à sécuriser l’IA dès sa conception !

La réglementation de l’IA est devenue l’un des principaux défis que tentent de relever les acteurs du secteur de la technologie. En effet, avec la montée en puissance de cet outil, il devient de plus en plus nécessaire pour les concepteurs de mener des actions pour rendre son utilisation responsable. Évidemment, les gouvernements du monde prennent aussi cette mission à cœur et œuvrent ensemble pour trouver des solutions adéquates.

Intelligence artificielle Crédit Freepik
Intelligence artificielle Crédit Freepik

D’ailleurs, pas plus tard que ce dimanche, un groupe de 18 pays, dont les USA et le Royaume-Uni, a annoncé la signature d’un accord international dans le domaine. Il s’agit précisément d’un ensemble de résolutions visant à sécuriser l’IA dès sa conception. Découvrez ici plus de précisions dans ce sens.

Les USA, le Royaume-Uni et plus d’une douzaine de pays signent le premier accord international sur la protection de l’IA

Après plusieurs mois de discussions et de partage d’idées, il semble que les gouvernements du monde sont finalement prêts à passer à la vitesse supérieure en ce qui concerne la réglementation de l’IA. En tout cas, c’est ce qu’on pourrait déduire après l’annonce de la signature du tout premier accord international sur la protection de cette technologie.

Élaborée par un groupe de 18 pays, dont les USA, le Royaume-Uni et l’Allemagne, cette nouvelle résolution devrait permettre aux concepteurs de mieux sécuriser leurs modèles d’IA. En effet, les grandes lignes de cet accord invitent surtout ces derniers à rendre leurs outils sûrs et protégés dès la conception.

Pour les accompagner dans ce sens, l’accord encourage les sociétés d’IA à effectuer des tests de sécurité appropriés avant tout déploiement de leurs modèles. Ceci dans l’objectif de rendre leur utilisation encore plus responsable et moins dangereuse pour les clients. Par ailleurs, le document résumant les termes de l’accord recommande aussi la surveillance des systèmes d’IA pour détecter les abus et la protection des données contre la falsification et le contrôle des fournisseurs de logiciels.

Toutefois, outre ces derniers détails, aucun point n’a été mis sur les questions relatives à la collecte des données servant à l’entraînement des systèmes d’IA ou à leur exploitation de manière responsable. Un constat qui devrait évidemment étonner plus d’un, surtout si l’on considère l’importance de ces problématiques dans la réglementation de cet outil.

Malgré tout, cet accord est un premier aboutissement majeur qu’il ne faudra pas négliger. Espérons juste que les pays concernés puissent poursuivre sur cette lancée pour apporter plus de réponses dans les mois à venir.

À lire aussi : Il existe des manières plus intéressantes d’exploiter l’IA selon cette étude !

Le processus de réglementation de l’IA reste néanmoins mieux développé sur le continent européen

Bien que ce premier accord international soit un progrès important, il faut reconnaître que les pays européens sont plus avancés en ce qui concerne la réglementation de l’IA sur leur territoire. En effet, contrairement aux USA, les États du vieux continent élaborent déjà des règles assez strictes en la matière.

D’ailleurs, tout récemment, la France, l’Allemagne et l’Italie sont parvenues à un accord sur la manière dont la conception et l’exploitation de cette technologie devraient être réglementées. Malheureusement, on ne pourrait pas affirmer la même chose pour les acteurs du continent américain, notamment les USA.

Il faut dire que les efforts effectués par le gouvernement américain pour adopter des lois dans le domaine n’ont pas encore abouti à grand-chose. Le Congrès américain reste encore polarisé et peine à légiférer. Ce qui constitue un véritable frein au processus.

SOURCE

…. to be continued
Read the Original Article
Copyright for syndicated content belongs to the linked Source : FredZone – https://www.fredzone.org/un-groupe-de-18-pays-vient-de-signer-un-accord-visant-a-securiser-lia-des-sa-conception-rmm112

Exit mobile version