Groupes de consommateurs de 13 pays européens1 alertent leurs autorités nationales pour lancer des enquêtes urgentes sur les risques de l’IA générative, comme ChatGPT, et pour faire appliquer la législation existante afin de protéger les consommateurs.
Ces appels coïncident avec la publication aujourd’hui d’un nouveau rapport de Forbrukerrådet, membre du BEUC et organisation norvégienne de consommateurs, qui met en lumière les nombreux risques de l’IA générative, les règles existantes qui peuvent protéger les consommateurs et les règles qui doivent encore être développé.
Ursula Pachl, directrice générale adjointe du Bureau européen des consommateurs (BEUC), a déclaré :
« L’IA générative telle que ChatGPT a ouvert toutes sortes de possibilités pour les consommateurs, mais il existe de sérieuses inquiétudes quant à la façon dont ces systèmes pourraient tromper, manipuler et nuire aux gens. Ils peuvent également être utilisés pour diffuser de la désinformation, perpétuer des préjugés existants qui amplifient la discrimination ou être utilisés à des fins frauduleuses.
«Nous appelons les autorités de sécurité, de données et de protection des consommateurs à ouvrir des enquêtes maintenant et à ne pas attendre sans rien faire que toutes sortes de dommages aux consommateurs se soient produits avant d’agir. Ces lois s’appliquent à tous les produits et services, qu’ils soient alimentés par l’IA ou non, et les autorités doivent les faire respecter.
« En parallèle, l’UE travaille sur une loi qui sera le premier règlement complet au monde à s’attaquer aux systèmes d’IA. Il est crucial que l’UE rende cette loi aussi étanche que possible pour protéger les consommateurs. Tous les systèmes d’IA, y compris l’IA générative, doivent être examinés par le public, et les autorités publiques doivent réaffirmer leur contrôle. Les législateurs doivent exiger que la sortie de tout système d’IA générative soit sûre, équitable et transparente pour les consommateurs.
Le BEUC a déjà écrit aux autorités de sécurité et de protection des consommateurs en avril pour leur demander d’ouvrir des enquêtes en raison de l’ampleur et de la rapidité du déploiement de modèles d’IA générative, tels que ChatGPT, et des dommages possibles résultant de son déploiement. Le comité européen de la protection des données a déjà créé un groupe de travail pour examiner ChatGPT.
Résumé du rapport
Le rapport publié par Forbrukerrådet résume divers défis, risques et méfaits actuels et émergents de l’IA générative. Ceux-ci inclus:
-
pouvoir, transparence et responsabilitéoù certains développeurs d’IA, y compris les grandes entreprises de technologie, ont fermé leurs systèmes à tout examen externe, ce qui rend très difficile de comprendre comment les données ont été collectées ou les décisions sont prises.
-
faux ou inexacte sortie, où les systèmes d’IA générative n’ont pas compris le contexte ou même inventé des sources inexistantes pour prendre en charge le contenu généré. Par exemple, si un chatbot alimenté par l’IA fournit de mauvais conseils médicaux à un consommateur, cela pourrait entraîner des dommages réels.
-
utiliser la technologie pour manipuler ou tromper consommateurs. Par exemple, en imitant les modèles de discours humains et en utilisant un langage émotif, les chatbots d’IA peuvent inciter les consommateurs à interagir avec eux et les faire se sentir coupables de ne pas prendre certaines mesures ou de les manipuler pour qu’ils paient un produit ou un service.
-
biais et discrimination. Étant donné que les modèles d’IA générative récupèrent d’énormes quantités d’informations sur Internet, leurs sorties peuvent contenir, perpétuer ou créer de nouveaux biais. Si les ensembles de données ne sont pas conservés et nettoyés, ces facteurs peuvent être intégrés dans les sorties des systèmes. Par exemple, les générateurs d’images ont tendance à sexualiser les femmes, en particulier les femmes de couleur, à un rythme beaucoup plus élevé que les hommes.
-
confidentialité et l’intégrité personnelle. Par exemple, les générateurs d’images peuvent utiliser des ensembles de données provenant de moteurs de recherche ou de médias sociaux sans base légale légale ni connaissance des personnes sur les images. Les générateurs de texte peuvent inclure des données personnelles d’individus qui peuvent être prises hors contexte.
-
sécurité vulnérabilités. Les systèmes d’IA générative pourraient être utilisés par les escrocs pour générer de grandes quantités de textes convaincants afin de tromper les victimes.
1 Les organisations de consommateurs suivantes participent à cette action : dTest (République tchèque), Forbrugerrådet Tænk (Danemark), EKPIZO (Grèce), Neytendasamtökin (Islande), Adiconsum (Italie), Latvijas Patērētāju interešu aizstāvības asociācija (Lettonie), Ghaqda tal- Konsumaturi (Malte), Consumentenbond (Pays-Bas), Organizacija na potrosuvacite na Makedonija (Macédoine du Nord), Forbrukerrådet (Norvège), ZPS (Slovénie), CECU (Espagne), Sveriges Konsumenter (Suède). Des groupes de consommateurs aux États-Unis et dans l’UE écrivent également au président américain Biden au nom du Trans-Atlantic Consumer Dialogue (TACD) pour alerter sur les risques de l’IA générative pour les consommateurs américains. L’UFC-Que Choisir (France) a également soutenu cette action en publiant un article en ligne pour alerter les consommateurs sur les risques de l’IA générative.
Parutions sur le même thème:
L’Encyclopédie/1re édition/PAREDRE.,Infos sur l’ouvrage.
Vous pouvez tirer profit de ce post traitant le sujet « Défense des assurés ». Il est identifié par l’équipe infosassur.com. La chronique a été reproduite de la manière la plus honnête que possible. Afin d’émettre des observations sur ce dossier autour du sujet « Défense des assurés », veuillez utiliser les contacts affichés sur notre site. infosassur.com est blog numérique qui comporte diverses actualités publiées sur le net dont le thème central est « Défense des assurés ». Connectez-vous sur notre site infosassur.com et nos réseaux sociaux afin d’être renseigné des nouvelles parutions.