Des experts de premier plan en technologie appellent à rendre les entreprises d'IA responsables des dommages causés par leurs systèmes avancés d'IA.
Ce qu'il faut retenir :
- Des experts avertissent que les systèmes d'IA puissants menacent la stabilité sociale ;
- Les entreprises d'IA doivent être tenues responsables des préjudices causés par leurs produits ;
- Les gouvernements sont encouragés à allouer un tiers de leurs fonds de recherche et développement en IA à l'utilisation sûre et éthique des systèmes ;
- Il est recommandé de donner accès à des auditeurs indépendants aux laboratoires d'IA.
Les entreprises d'IA responsables des préjudices causés
L'essor rapide et impressionnant de l'intelligence artificielle a suscité de nombreuses préoccupations, notamment en ce qui concerne la sécurité et l'éthique. Un groupe d'experts a récemment exprimé ses inquiétudes quant à la menace que représentent les puissants systèmes d'IA pour la stabilité sociale. Ils estiment qu'il est impératif que les entreprises d'IA soient tenues responsables des préjudices causés par leurs produits.
L'intervention de ces experts arrive à un moment crucial, alors que des politiciens internationaux, des entreprises technologiques, des universitaires et des représentants de la société civile se préparent à se réunir à Bletchley Park début novembre pour un sommet consacré à la sécurité de l'IA. Stuart Russell, professeur d'informatique à l'Université de Californie à Berkeley, a souligné la gravité de la situation en déclarant qu'il est "totalement imprudent" de poursuivre le développement de systèmes d'IA toujours plus puissants sans comprendre comment les rendre sûrs. Il a également affirmé qu'il y avait plus de réglementations sur les sandwicheries que sur les entreprises d'intelligence artificielle.
Les réglementations demandées
Les recommandations formulées par ces experts comprennent des mesures telles que l'allocation d'un tiers des fonds de recherche et développement des gouvernements et des entreprises à l'utilisation éthique et sûre des systèmes d'IA. Ils préconisent également de donner accès à des auditeurs indépendants aux laboratoires d'IA, de mettre en place un système de licence pour la construction de modèles de pointe et d'imposer aux entreprises technologiques une responsabilité pour les dommages prévisibles et évitables causés par leurs systèmes d'IA.
Parmi les co-auteurs de ce document figurent Geoffrey Hinton et Yoshua Bengio, deux des trois "parrains de l'IA", qui ont reçu le prix Turing de l'ACM en 2018 pour leurs travaux sur l'IA. Ils sont d'ailleurs invités à assister au sommet de Bletchley Park. Ces experts, ainsi que d'autres, ont averti que les systèmes d'IA développés sans précaution pourraient "amplifier l'injustice sociale, saper nos professions, éroder la stabilité sociale et affaiblir notre compréhension commune de la réalité".