L'IA au sein de l'entreprise manque de discrétion et pourrait nuire à notre travail
Les assistants d’entreprise traditionnellement gardiens des secrets et confidences professionnelles, cèdent peu à peu certaines de leurs tâches aux intelligences artificielles. Mais l’IA, qui ne dispose pas du même instinct de discrétion, peut parfois révéler des informations privées ou stratégiques au sein d’une entreprise. Et les cas de partage accidentel d’informations privées se multiplient.
Alex Bilzerian, chercheur et ingénieur, a récemment fait les frais de cette intrusion. Après une réunion Zoom avec des investisseurs, il a reçu un courriel d'un assistant de transcription automatisé, contenant non seulement le compte rendu de la réunion, mais aussi la conversation confidentielle des investisseurs après son départ, où ils ont abordé des échecs stratégiques de leur entreprise.
Ce type de "fuites" n’est pas un cas isolé ; les assistants IA, qui captent tout ce qui se dit durant une réunion, ne sont pas programmés pour distinguer le contenu sensible. La facilité d’enregistrement offerte par ces outils devient un risque dès que les utilisateurs oublient ou ne connaissent pas tous les paramètres de confidentialité.
Le jugement humain indispensable
Les assistants IA sont devenus populaires dans les entreprises car ils peuvent automatiser des tâches comme la transcription des réunions, la recherche de sujets ou même la création de résumés quotidiens. Des entreprises comme Salesforce, Microsoft et Google développent des IA spécialisées pour optimiser les services clients, la gestion des ventes ou l’organisation de documents. L’objectif est d’accroître la productivité et d’alléger la charge de travail des employés.
Cependant, bien que ces outils soient performants pour organiser et restituer des informations, ils manquent de jugement humain pour évaluer le contexte et la pertinence de ce qui doit être enregistré ou partagé. La moindre inattention aux paramètres de sécurité peut donc exposer des informations sensibles à des participants inattendus.
Adapter les pratiques managériales
Les assistants IA offrent des options de contrôle de partage : il est possible de restreindre les transcriptions automatiques aux collaborateurs d’un même domaine ou de désactiver le partage automatique. Cependant, ces options ne sont pas toujours claires pour les utilisateurs, et il est facile de commettre des erreurs. Ce manque de contrôle concret accroît les risques de divulgation involontaire. Les entreprises doivent sensibiliser leurs équipes sur la gestion des paramètres d’IA et de rappeler aux participants de chaque réunion de demander le consentement pour les enregistrements.
L’intégration de ces technologies nécessite une adaptation des pratiques managériales. Les entreprises doivent sensibiliser leurs employés aux risques liés aux IA et les encourager à évaluer les paramètres de confidentialité avant chaque réunion. Par ailleurs, il est essentiel d’intégrer des barrières technologiques, comme des demandes de confirmation pour le partage de transcriptions, afin de prévenir les envois automatiques indésirables. Le site gouvernemental français, FranceNum.gouv.fr propose un mode d'emploi, par exemple, sur comment utiliser ChatGPT avec vos propres données
Lancez la conversation
Connectez-vous à votre compte franceinfo pour commenter.