Le 14 mars, Google a publié sa politique des utilisations interdites de l'intelligence artificielle générative. Elle vous indique dans quels cas vous n'êtes pas autorisé à utiliser ses fonctionnalités pour créer du contenu.
Les 3 points à retenir
- Google informe les utilisateurs de sa nouvelle politique des utilisations interdites de l’IA générative.
- Cette politique concerne uniquement Google Bard et l’IA générative, pour l’instant.
- L’utilisation de l’IA générative est interdite pour les activités dangereuses, illégales ou malveillantes ; pour générer de fausses informations et du contenu sexuellement explicite.
Contexte
Il y a quelques jours, on vous annonçait que Google lançait l’IA générative dans Google Cloud et Google Workspace. Si ces fonctionnalités sont pour l’instant réservées à un nombre limité de testeurs, Google a déjà publié sa politique des utilisations interdites de l’IA générative, ce 14 mars.
La politique des utilisations interdites de l’IA générative n’est pas spécifique à Google Search, mais cela pourra certainement vous être utile ! Voici ce que dit Google, qui attend que “vous utilisiez les modèles d’IA générative de manière responsable et légale”.
Les utilisations interdites de l’IA générative
Vous ne devez pas utiliser les services Google faisant référence à cette politique pour :
Effectuer ou faciliter des activités dangereuses, illégales ou malveillantes
- La facilitation ou la promotion d’activités illégales ou violant la loi (contenu lié à l’abus ou l’exploitation sexuelle d’enfants ; instructions pour accéder à des substances, des biens ou des services illégaux, contenu terroriste ou extrémiste, incitation aux délits…) ;
- L’abus, le préjudice, l’interférence ou l’interruption de services (spam, phishing, escroquerie, logiciel malveillant) ;
- Le contournement des filtres de sécurité ou pousser le modèle à agir de façon à enfreindre la politique de Google ;
- La génération de contenu qui peut nuire ou favoriser le préjudice d’individus ou de groupes (harcèlement, intimidation, insultes, violence, automutilation, surveillance, partage d’informations d’identification personnelle…)
Générer et distribuer du contenu destiné à désinformer
- La fausse représentation de la provenance du contenu généré, en prétendant qu’il a été créé par un être humain ou en le présentant comme une oeuvre originale, dans le but de tromper ;
- La génération de contenu qui usurpe l’identité d’un individu vivant ou mort sans information explicite, dans le but de tromper ;
- Les allégations trompeuses d’expertise ou de compétences, en particulier dans des secteurs sensibles : services gouvernementaux, santé, finance, droit ;
- La prise de décision automatisée dans des domaines affectant les droits ou le bien-être des individus : finance, droit, emploi, santé, logement, assurance, protection sociale.
Générer du contenu sexuellement explicite
Cela inclut le contenu créé à des fins de pornographie ou de gratification sexuelle, comme des chatbots sexuels. En revanche, cela n’inclut pas le contenu créé à des fins scientifiques, éducatives, documentaires ou artistiques.
Ce qu’il faut retenir
La politique de Google au sujet de l’IA générative n’a rien de très surprenant. Concernant la partie sur le contenu destiné à désinformer, Google parle très clairement des contenus YMYL (Your Money, Your Life), soit les contenus qui ont un impact direct sur la vie des internautes. Faites donc bien attention à l’utilisation de l’intelligence artificielle sur ce type de pages.
Rappelons encore que cette politique concerne pour le moment uniquement les fonctionnalités d’IA générative et de Google Bard. Google Search a déjà ses propres outils pour éviter autant que possible les fausses informations dans des secteurs sensibles, que le contenu soit créé par des humains ou par l’intelligence artificielle.