Attentat de Halle en direct sur internet : "Une intelligence artificielle n'est pas capable de distinguer une attaque terroriste d'un jeu vidéo"
L'attaque a été diffusée en direct sur internet, ce qui pose la question de la capacité des algorithmes à détecter une vraie attaque d'une scène fictive. "Techniquement, on en est incapable", selon Guillaume Champeau, du moteur de recherche Qwant.
C'est "le pire des scénarios possibles" : l'attaque d'un tireur contre une synagogue à Halle, en Allemagne, qui a fait deux morts mercredi 10 octobre, a été diffusée en direct pendant 35 minutes sur la plateforme Twitch. La scène a été regardée par cinq personnes en live et quelque 2 200 personnes ont ensuite vu la version conservée sur Twitch, avant qu'elle ne soit supprimée.
A recording of the stream, which was automatically generated based on the account’s settings, was viewed by approximately 2200 people in the 30 minutes before the video was flagged and removed from Twitch.
— Twitch (@Twitch) October 9, 2019
"Techniquement, on est absolument incapable d'avoir des algorithmes, des intelligences artificielles qui sauraient déterminer avec une certitude absolue que le contenu qui est en train d'être diffusé est une attaque terroriste", a affirmé sur franceinfo Guillaume Champeau, directeur de l'éthique et des affaires juridiques de Qwant (moteur de recherche français).
La limite de l'intelligence artificielle
A-t-on créé un monstre ? "Un monstre, tout est relatif", répond-il. "Vous avez aujourd'hui des millions de diffusions en direct tous les jours sur différentes plateformes qui sont des contenus parfaitement légitimes, mais c'est vrai que sur un tout petit pourcentage de diffusions, certaines peuvent poser problème et jusqu'au pire", affirme Guillaume Champeau, faisant allusion aux attentats de Christchurch, en mars 2019, qui ont fait 51 morts et 49 blessés. "Ça ne veut pas dire pour autant qu'il faut renoncer à ces technologies qui sont un moyen pour le grand public de s'exprimer sur plein de sujets différents et de se faire parfois leur propre média, ou même en l'occurrence sur la plateforme Twitch, pour simplement diffuser des parties de jeu vidéo en direct", ajoute-t-il.
Un algorithme n'est pas capable de distinguer une attaque terroriste d'une partie de jeu vidéo dans laquelle il y a des tirs
Guillaume Champeauà franceinfo
Pourrait-on alors imaginer une diffusion en léger différé ? "Cette solution inciterait à avoir une réflexion en terme de liberté d'expression". Admettons qu'il y ait un différé, "techniquement ce n'est pas pour autant qu'au bout de 30 minutes", l'algorithme sera capable de faire la différence, "parce que ça fait à peu près le même bruit, parce que vous avez à peu près les mêmes images". Le seul moyen selon lui de faire la différence, c'est le renseignement humain, car la technologie n'en est pas encore capable.
Coopérer plus efficacement entre plateformes
Qwant fait partie des huit premiers signataires de l'appel de Christchurch pour agir contre le terrorisme et l'extrémisme en ligne. Les plateformes sont appelées à coopérer plus efficacement, y compris avec les pouvoirs publics. "Il faut que ce partage d'informations s'ouvre y compris aux plus petites plateformes et que ça fasse l'objet d'une coopération ouverte, y compris avec les pouvoirs publics pour qu'on puisse lutter extrêmement efficacement", ajoute Guillaume Champeau.
>> Deux mois après l'attentat de Christchurch, Facebook restreint l'usage de sa plateforme Live
"On se doute qu'un contenu qui ne passerait plus sur une plateforme pourrait malheureusement continuer à passer sur d'autres plateformes éventuellement moins visibles. Il n'y a qu'un effort de coopération entre toutes les plateformes, les grandes et les petites, qui permettra une efficacité maximale", conclut-il.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.