Plusieurs écoles existent aujourd’hui concernant l’approche de l’IA. L’approche sino-américaine qui privilégie une pratique de conservation des données dans un objectif business ou de contrôle. Les objectifs de cette approche oscillent entre mercantilisme et autoritarisme. Mais, la vision de ces deux géants contraste une seconde vision européanocentrée. Cet arbitrage tente encore de privilégier un certain « équilibrisme » entre protection des données et commerce. Nous vous proposons aujourd’hui un tour d’horizon de ces logiques afin d’en comprendre les tenants et les aboutissants.
Etat des lieux
Noter 1,3 milliards de citoyens ? Possible répond le gouvernement chinois. Grâce à l’exploitation de leurs données personnelles, l’ensemble des citoyens de l’empire du Milieu pourraient ainsi être notés en considération de leurs « bons » ou « mauvais » comportements. Comment ? Avec une IA surpuissante capable d’analyser des milliards de données issues de la télésurveillance, des données en ligne ou voir même de la délation. Mis en place depuis 2010, ce système peut empêcher en cas de cumul de mauvais points de prendre l’avion. Il peut aussi faire payer plus d’impôts ou pire, attendre plus longtemps aux urgences des hôpitaux. Néanmoins la liaison supposée dangereuse entre Pékin et ses BATX demeure encore une inconnue … .
Aux Etats-Unis l’approche est résolument commerciale. Les GAFA proposent toujours plus de connectivité et d’enregistrement de données. Certaines grandes enseignes proposent désormais des IA capables de remplir votre panier de course numérique à votre place en fonction de ce qu’il vous reste dans votre frigo connecté. Le crédo : toujours plus de données à analyser. Dans un seul objectif : permettre aux IA de mieux vous connaître et mieux cerner vos besoins. D’ailleurs pour certains la course aux données personnelles est donc lancée depuis maintenant quelques années.
En Europe le discours est différent, avec notamment l’adoption en France de la réglementation RGPD en 2018 : près de 4% d’amende sur le chiffre d’affaires mondial d’une société contrevenante. Ou bien encore des restrictions sur la conservation des données personnelles etc. L’objectif est clair pour le législateur, protéger l’internaute. En ce sens le RGPD est une étape majeure depuis la loi « libertés et informatique » de 1978. Néanmoins, Bruxelles ne partage pas la vision française. En effet pour le législateur européen, la France demeure encore bien trop conservatrice de données au titre de la sécurité nationale selon le site numérama.
En somme l’analyse de nos données personnelles conservées par l’Etat avec une IA gouvernementale est possible. En revanche l’analyse de ces données par une IA commerciale moins. Ce qui n’est pas le cas aux Etats-Unis où les hôpitaux publics revendent les données des patients à de grands groupes pharmaceutiques. D’où la question de l’éthique. Et d’autant plus lorsque des « mauvais comportements » font passer le patient en dernier dans le système de soins.
De l’éthique oui, mais alors pour quel usage ?
Les développements des IA posent donc plusieurs problèmes, qui, s’ils ne peuvent être résolus dans l’immédiat, doivent néanmoins être abordés. Car il y a un paradigme : la place que l’homme veut attribuer à l’IA qu’il crée. Doit-elle être au centre du processus décisionnel, ou bien, doit-elle être une technologie qui va permettre d’augmenter les capacités humaines ? Ce questionnement éthique est la pierre angulaire de la réflexion des chercheurs d’aujourd’hui.
De fait l’action politique doit créer un cadre juridique et législatif adéquat. En France, la CNIL mais aussi le CNRS se positionnent sur le sujet. Mais toutes deux n’ont pas exactement la même vision. Ainsi selon Antoine Petit, président du CNRS « Il faudrait faire attention à ce que la France ne devienne pas une spécialiste de l’éthique en intelligence artificielle, quand les États-Unis et la Chine font du business » (déclaration lors du sommet AI for Humanity du 29 mars 2018 au Collège de France).
Des logiques économiques sont donc à l’œuvre. Car au risque de se spécialiser dans les enjeux éthiques de l’IA, la France pourrait ne pas suivre la bonne trajectoire en se focalisant sur l’éthique et non le commercial. La crainte d’Antoine Petit ? Une spécialisation de niche de la France qui la mettrait à l’écart des échanges commerciaux mondiaux sur l’IA.
Mais, une fois n’est pas coutume une solution intermédiaire pourrait venir droit des Etats-Unis. Au moment de la commercialisation des premiers véhicules semi-autonomes intégrant de l’IA, un cadre juridique a été immédiatement posé en collaboration avec les patrons des industries américaines. Proust nous disait que l’on dédaigne volontiers un but que l’on a su atteindre. Serait-ce donc là la position française ? Dédaigner un secteur dans lequel elle n’est pas leader pour se focaliser sur un enjeu alternatif : l’éthique. L’avenir dira s’il s’agit là d’une force ou d’une faiblesse française au vu des enjeux mondiaux.