+33 (0)1 69 33 05 50

Actualité et agenda de l'AFTI

Tech et Ethique - CFA AFTI

La Tech et l’Ethique, le challenge de l’informaticien

Si les technologies continuent d’évoluer, certains principes sont immuables. L’éthique en fait partie. Les interrogations touchent les sphères de l’informatique, du design, des sciences humaines pour juger des futures normes éthiques, c’est-à-dire juger de ce qui est respectueux de l’utilisateur, de l’entreprise, et de son environnement. Qu’en est-il de l’éthique aujourd’hui dans l’IT ?
 

L’éthique et la morale

L’éthique est un ensemble de valeurs morales socialement approuvées. Faire preuve d’éthique signifie savoir ce qui est “bien”, et agir en fonction. On entend par “bien” ce qui d’après un consensus et des valeurs communes, ne blessent ou n’atteignent pas à la dignité d’autrui.

Dans le cadre professionnel, on fait preuve d’éthique lorsque l’on agit pour le bien de son équipe, de son entreprise ou de ses clients. Cela implique aussi bien une aide apportée à un collègue qu’une implication particulière lors d’un reporting ou lors du développement d’une application.

L’éthique est mise à l’épreuve lorsqu’un choix doit être fait pour décider de ce qui est « mieux » pour tous les acteurs, en cherchant à ne pas léser les personnes qui n’ont pas d’influence dans le processus de production (prestataires, clients, utilisateurs finaux).

Par exemple : est-ce qu’une entreprise doit faire un effort d’un point de vue hygiénique, au risque de perdre de la rentabilité ? Est-ce qu’être consciencieux de l’environnement est préférable, quitte à ce que cela impacte l’activité ? Ces dilemmes se résolvent par une analyse d’un grand nombre de valeurs morales nous permettant de savoir comment agir. Au-delà de la simple notion de bien et mal, la loi vient généralement sanctionner les agissements qui vont à l’encontre du bien public, comme c’est le cas pour le les logiciels falsifiés de nature à contourner les normes anti-pollution.

Dans le domaine informatique, cette notion d’éthique prend des formes très particulières, car elle touche des sujets qui évoluent vite, à savoir : les données personnelles, les algorithmes et l’intelligence artificielle.

Tech et Ethique - CFA AFTI

Données, donnez-moi

En 2008, le nombre d’utilisateurs sur le web était de 1,4 milliard. En 2018, ce sont plus de 4 milliards d’individus qui transmettent des informations quotidiennement, dont beaucoup sont personnelles.

Non seulement la quantité d’information a explosé, mais sa qualité est elle aussi devenue critique : les cookies permettent de savoir où, quand, quoi, comment on utilise nos périphériques.

Les réseaux sociaux détiennent des informations bien plus personnelles que l’on ne pense : le dernier film vu au cinéma, si l’on a déménagé récemment, notre religion ou notre orientation politique. C’est dans cette optique de protection des données que l’Union européenne a appliqué le Règlement Général de Protection des Données, afin de forcer les entreprises à appliquer plus de transparence au consentement, et au type de données envoyées.

Les données personnelles sont un bien inaliénable, ce qui veut dire que l’entreprise qui les détient n’a pas de propriété sur celles-ci, elle est seulement responsable de les garder en sécurité, ou de les proposer à des entreprises tierces avec consentement. Mais que se passe-t-il lorsqu’une entreprise se fait voler des données, ou que celles-ci soient rendues publiques ?

Parlons du cas d’Ashley Madison, un site de rencontre et d’adultère en 2015 qui forçait les utilisateurs à prendre un compte premium pour avoir le simple droit de détruire toutes les données détenues. En représailles, des hackers ont pris pour cible le site, et révélé plus de 10 gb de données permettant de facilement identifier les personnes inscrites sur le site.

L’entreprise a dû régler près de 11,5 millions de dollars en dommages et intérêts. A l’inverse, le scandale de Cambridge Analytica et Facebook n’a pas donné de suite aux dommages irréversibles causés, comme l’influence politique des élections américaines, ou même sur le vote du Brexit. Ce qui pose encore une fois la question de forte responsabilité qu’ont les entreprises quant à la protection de nos données.

 

Les algorithmes & IA ?

Le débat autour des algorithmes et de l’IA d’un point de vue éthique est différent de celui sur les données personnelles. L’avis des entreprises comme les politiques est encore incertain sur leurs utilisations et l’impact qu’ils ont sur notre société tout entière. Malgré un rapport créé par Cédric Villani sur ce sujet, aucune restriction n’est pour l’instant mise en place pour éviter un scénario à la Terminator.

Partons des algorithmes : en soi, ce ne sont qu’un ensemble de règles appliquées à des données, comme une recette appliquée à des ingrédients, et qui nous donnerait une réponse toute faite. Deux questions se posent à ce niveau : qui crée ces règles ? Sont-elles créées pour être « juste » envers tous les acteurs ou simplement à l’entreprise ?

Certains algorithmes dans le domaine de l’assurance sont discriminants, car ils prennent en compte des éléments non imputables à l’intéressé (lieu de résidence, situation familiale…). Le manque d’éthique revient ici aux créateurs de l’algorithme, qui l’ont conçu en toute connaissance de cause : ils n’ont pas nécessairement pris en compte l’utilisateur à la conception de l’algorithme.

La problématique survient lorsqu’un consensus éthique n’est pas encore établi concernant une technologie nouvelle, comme la voiture autonome.

En mars dernier, un Uber autonome a renversé une femme en Arizona. D’après un article de The Economist, le véhicule aurait aperçu la cycliste, dans un noir complet, 6 secondes avant l’impact, mais l’aurait identifié comme un objet inconnu, puis comme une voiture, et enfin en tant que cycliste.

On ne sait vers qui renvoyer l’erreur d’appréciation : techniquement les voitures autonomes ont une meilleure visibilité, sans parler d’une vitesse d’analyse et de réaction plus rapide qu’un automobiliste lambda, qui sauvera bien plus de vie dans le futur. Mais à qui reviendra la responsabilité en cas accident ? Celle de l’automobiliste assoupi au volant ? Celle du concepteur du programme ? Celle de l’entreprise propriétaire du véhicule ?

Dans cette perspective, certaines entreprises se sont mises à recruter des philosophes pour résoudre le fameux dilemme du tramway : qu’est-ce que notre éthique à nous en tant qu’humain, nous pousse à faire dans une situation où un accident ne peut être évité ? Qu’est-ce qui est « le moins pire » dans une situation à risque, et est-ce qu’un algorithme peut imiter la démarche morale indiquée ? C’est ce qu’essaie de résoudre Nicholas Evans en traduisant un langage éthique en code.

 

Le but de l’éthique n’est pas de transformer les ingénieurs en philosophes, ou inversement, mais plutôt de rappeler l’impact de la technologie sur notre société. Cette conscience que beaucoup d’entrepreneurs tendent à mettre de côté permet de garder une confiance, voire une foi, aux entreprises de l’IT.