- Google a publié ce qui revient à un livre de règles pour la façon dont la société va appliquer l’intelligence artificielle.
- Les sept principes comprennent l’assurance que l’intelligence artificielle est mise au service d’applications qui sont socialement bénéfiques, sûres et ne créeront pas de biais injustes.
- C’est la réponse de Google à un conflit au sein de l’entreprise au sujet de la décision controversée de la direction de construire des outils d’IA pour l’armée. La semaine dernière, Gizmodo a rapporté que la responsable du cloud de Google, Diane Greene, a dit aux employés que Google avait décidé d’arrêter de fournir des technologies d’IA au Pentagone.
Le DG de Google Sundar Pichai a publié jeudi un ensemble de “principes éthiques” qui gouverneront le travail de l’entreprise avec l’intelligence artificielle.
Pichai a déclaré que si la technologie de l’IA offre de nombreux avantages aux consommateurs et aux entreprises, Google se rend compte que la technologie “aura un impact significatif sur la société pour de nombreuses années à venir ” et que la direction “se sent profondément responsable de faire les choses comme il se doit”.
Pichai a indiqué que les applications d’IA seront examinées pour s’assurer qu’elles sont socialement bénéfiques, qu’elles ne créent pas de préjugés injustes, qu’elles sont sûres, qu’elles sont responsables envers les gens, qu’elles intègrent les principes de design, qu’elles sont conformes à l’excellence scientifique et qu’elles sont disponibles pour des utilisations qui respectent les principes précédents.
Les principes arrivent après un conflit au sein de Google, opposant des milliers d’employés à la direction. Ces travailleurs ont protesté contre l’implication de l’entreprise dans le projet Maven — la collaboration controversée entre Google et le ministère américain de la Défense. En mars, on a appris que Google avait discrètement fourni la technologie d’IA au Pentagone pour aider à analyser les images vidéo des drones.
En avril, plus de 4000 employés ont signé une pétition demandant à la direction de Google de cesser de travailler sur le projet Maven et de promettre de ne plus jamais “construire une technologie de guerre”. Peu après, Gizmodo a rapporté qu’une douzaine d’employés de Google avaient démissionné en signe de protestation. Vendredi dernier, Diane Greene, responsable de Google Cloud, aurait dit aux employés que Google avait décidé de cesser de travailler avec les militaires sur l’IA.
Dans son billet de blog, Pichai a également précisé les types d’applications que Google ne développera pas. Il s’agit notamment des armes ou des technologies qui causent des dommages globaux, ainsi que de tout ce qui peut être utilisé pour la surveillance qui viole les “normes internationalement acceptées” ou tout ce qui entre en conflit avec les “principes largement acceptés du droit international et des droits de l’homme”.
La promesse de Pichai concernant les armes était “vraiment forte”, a déclaré à Business Insider Peter Asaro, professeur associé des études médiatiques à la New School de New York. Asaro est co-auteur d’une lettre adressée à la direction de Google le mois dernier, signée par des centaines d’universitaires et de chercheurs, exigeant que Google cesse de développer des technologies militaires et appelant à interdire les armes autonomes. Asaro a cependant déclaré que l’engagement de Google de ne pas construire des applications qui “collectent ou utilisent des informations pour la surveillance” qui violent les normes internationales laisse trop de marge de manœuvre.
“Qui et qu’est-ce qui dicte la norme?” Asaro a demandé, notant que de telles normes diffèrent largement à travers le monde.
L’IA effraie beaucoup de gens. À l’extrême, on craint de voir un jour le genre de robots tueurs souvent représentés dans les films hollywoodiens. Bien que cela puisse sembler tiré par les cheveux, les critiques ont dit que l’analyse vidéo de Google sur les séquences de surveillance pourrait aider à améliorer la précision des frappes de missiles de drone.
Et Gizmodo a également signalé que Google a cherché à aider à construire des systèmes qui ont permis au Pentagone de surveiller des villes entières.
Ce que cela signifie pour Google, c’est la perte potentielle de contrats de défense. Le premier, le Joint Enterprise Defense Infrasture ou JEDI, s’élève à 10 milliards de dollars. Mais selon Bloomberg, Google était loin de gagner ces contrats. Des entreprises comme Oracle, Microsoft et IBM, qui possédaient beaucoup plus d’expérience de travail avec le gouvernement, étaient considérées comme les premiers susceptibles de remporter ces marchés.
Avec businessinsider