Le contenu IA doit être filigrané

ai lamda

OpenAI, Google, Microsoft et d’autres ont promis de mettre en place des mesures de sécurité supplémentaires pour les technologies d’IA générative. Par exemple, l’utilisation de filigranes pour indiquer que quelque chose a été produit par l’IA.

Le service de presse de la Maison-Blanche a annoncé vendredi soir qu’il avait conclu un accord avec sept grandes entreprises spécialisées dans l’IA. Elles ont promis volontairement, mais peut-être sous une petite pression du gouvernement, de prendre des mesures supplémentaires pour renforcer la sûreté, la sécurité et la fiabilité de leur technologie d’intelligence artificielle. Les règles incluent OpenAI, Google et Microsoft et leurs outils d’IA populaires.

Les entreprises ont promis, entre autres, de soumettre les nouveaux systèmes à des tests de sécurité externes avant de les mettre à la disposition du grand public. Elles doivent également rechercher activement les risques potentiels de l’IA et communiquer avec le gouvernement, mais aussi avec d’autres acteurs de l’industrie à cette fin. De plus, il faut investir suffisamment dans la sécurité de la technologie.

Confiance dans l’IA

Un troisième élément de l’accord concerne le renforcement de la confiance entre les humains et l’intelligence artificielle. Les entreprises communiqueront de manière ouverte et transparente sur ce que leurs outils peuvent et surtout ne peuvent pas faire, et fourniront des lignes directrices sur la manière d’utiliser la technologie en toute sécurité.

Grâce aux filigranes ajoutés au contenu, les utilisateurs devraient savoir plus clairement si quelque chose a été créé par ou avec l’intelligence artificielle, afin de mettre un terme à la diffusion d’informations erronées et de « deepfakes ». Enfin, les entreprises d’IA ont promis de développer l’intelligence artificielle uniquement pour le bien de tous.

OpenAI, Google et Microsoft affirment chacun dans leur propre déclaration qu’ils soutiennent sans réserve les mesures proposées. Des propositions similaires sont également examinées en Europe dans le cadre de la loi sur l’IA de la Commission européenne. Toutefois, pour l’instant, ce projet de loi reçoit moins de soutien de la part du monde des affaires. En fait, Sam Altman d’OpenAI a déjà prévenu que les règles pourraient empêcher son entreprise de continuer à proposer ChatGPT en Europe.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.