Souveraineté et sécurité technique
La confiance de nos clients et la sécurité de leurs données constituent les piliers de notre activité. Face à l’essor de l’intelligence artificielle, Mediatech a fait le choix stratégique de développer sa propre infrastructure d’inférence.
Cette initiative répond à un objectif précis : offrir la puissance des technologies d’IA les plus avancées tout en garantissant une maîtrise technique et une confidentialité rigoureuse des données traitées.
Comprendre les niveaux de confidentialité en IA
Pour situer notre approche, il est essentiel de distinguer les trois modes d’interaction avec une intelligence artificielle, chacun offrant un niveau de sécurité différent.
- Les interfaces web grand public (chatbots, studios)
Les portails comme ChatGPT ou Google AI Studio sont conçus pour l’expérimentation. Leurs conditions d’utilisation stipulent généralement que les conversations peuvent être analysées par des humains et utilisées pour l’entraînement des modèles futurs. Il est formellement déconseillé d’y soumettre des données d’entreprise confidentielles. - Les API publiques professionnelles
L’utilisation d’API commerciales (OpenAI, Anthropic via API) offre un niveau de sécurité supérieur. Les fournisseurs s’engagent contractuellement à ne pas utiliser les données transitant par leurs API pour l’entraînement (politique de « non-training »). Cependant, vos données transitent par une infrastructure tierce mutualisée, et la confiance repose essentiellement sur une politique de confidentialité déclarative. - La plateforme d’IA privée Mediatech : la garantie technique
Nous allons au-delà de la promesse contractuelle d’un tiers. Notre plateforme est conçue pour offrir une garantie technique et opérationnelle par l’isolation.
Concrètement, nous déployons des modèles d’IA à poids ouverts (Open Weights) sur notre propre infrastructure cloud sécurisée. Cela se traduit par trois garanties fondamentales :
> aucun transit vers des tiers, vos données n’étant jamais envoyées aux serveurs de Meta, Google, ou Mistral AI et restant exclusivement dans le périmètre technique que nous administrons,
> une isolation des traitements, chaque inférence étant exécutée dans un environnement contrôlé,
> la garantie technique de non-entraînement, puisque nous avons la maîtrise totale sur l’infrastructure et que le mécanisme d’apprentissage est techniquement désactivé sur nos instances d’inférence.
Rappel : la portée du droit américain
La principale source de risque juridique pour les données hébergées chez un fournisseur américain vient de deux lois :
- Patriot Act (2001) : cette loi autorise les agences américaines à demander l’accès à des données dans le cadre de la lutte contre le terrorisme. Sa portée a souvent été interprétée de manière très large,
- CLOUD Act (2018) : cette loi a rendu l’extraterritorialité totalement explicite. Elle oblige toute entreprise américaine, ainsi que ses filiales, à donner accès aux données qu’elle stocke, quelle que soit leur localisation physique dans le monde. Elle interdit légalement à l’entreprise de prévenir les personnes concernées par la réquisition de données dans certains cas.
Notre choix des zones d’hébergement européennes (France, Belgique, Pays-Bas, Allemagne) est la protection la plus forte contre ces deux lois, car il fait prévaloir le RGPD et la jurisprudence de la CJUE (Cour de Justice de l’Union Européenne), forçant une procédure judiciaire de « conflit de lois » si une réquisition américaine devait avoir lieu.
Architecture technique et flux de données
Notre solution repose sur une transparence maîtrisée des flux d’information. Voici le détail du cycle de vie d’une requête sur notre plateforme.
Les modèles utilisés
Nous sélectionnons rigoureusement les modèles les plus performants du marché « Open Weights » (tels que Llama 3.1, Qwen 2.5 ou Mistral) pour chaque type de tâche :
- l’analyse complexe et l’extraction structurée (JSON),
- la traduction et la reformulation linguistique,
- l’analyse métier spécifique.
Le cycle de vie d’une donnée (workflow)
Le traitement d’une donnée suit un protocole strict conçu pour minimiser la persistance de l’information :
- transmission sécurisée : la requête est envoyée via un flux chiffré (HTTPS/TLS) vers notre API sécurisée,
- traitement éphémère : une machine virtuelle (VM) équipée de GPU est instanciée ou sollicitée pour traiter la demande. Cette instance est techniquement et naturellement configurée pour ne pas conserver d’historique d’une session à l’autre,
- retour et nettoyage : une fois le résultat généré, il est renvoyé via une callback sécurisée vers vos systèmes.
En complément, et afin de garantir des échanges de documents totalement privés lorsque cela est nécessaire, Mediatech met en place un mécanisme de dépôt sécurisé hébergé sur une infrastructure isolée (serveur OVH, zone européenne conforme RGPD). Les documents transmis par le client y sont déposés via un accès chiffré, stockés de manière restreinte et protégée, puis transférés de façon sécurisée vers notre infrastructure GCS pour traitement automatisé. Une fois traités, ils sont intégralement effacés de l’espace intermédiaire comme du stockage final, assurant un flux de bout en bout maîtrisé et non persistant.
Politique de rétention et logs
Nous appliquons une politique de minimisation des données :
- logs d’infrastructure : les journaux techniques de la plateforme (Google Cloud Logging) sont conservés pour l’audit de sécurité et la maintenance opérationnelle. Ils ne contiennent techniquement pas vos données : les flux de questions/réponses transitent exclusivement via le canal applicatif chiffré et ne sont jamais inscrits dans les journaux système de l’hébergeur,
- paramétrage des modèles : nos serveurs d’inférence sont configurés pour ne journaliser aucune donnée textuelle (prompts ou générations) dans la console de la machine, garantissant qu’aucune trace résiduelle ne persiste dans les logs de l’instance,
- traçabilité et conservation des données : le traitement est conçu pour être unitaire et non persistant. Par défaut, le contenu intégral des échanges (prompts et réponses) n’est pas conservé. Les données ne sont stockées dans notre cluster Elasticsearch que si le client l’a explicitement demandé ou s’il rencontre une erreur, afin de permettre à notre spécialiste IA d’intervenir pour le support et l’analyse post-mortem.
Choix stratégique des infrastructures et souveraineté
La sécurité juridique est aussi importante que la sécurité technique. Nous avons sélectionné nos zones d’hébergement (Google Cloud Platform) en fonction d’une analyse stricte des risques liés à l’extraterritorialité du droit américain (CLOUD Act).
Bien que Google soit une entreprise américaine, le stockage des données dans certaines juridictions européennes active des mécanismes de protection légaux forts (RGPD et lois locales).
Zones de traitement privilégiées
Nous opérons nos clusters GPU exclusivement dans des zones identifiées comme « à faible risque juridique », offrant le meilleur niveau de protection contre les réquisitions de données étrangères :
- France,
- Belgique,
- Pays-Bas,
- Allemagne.
Pourquoi ce choix ?
Ces pays disposent d’un cadre juridique et d’autorités de contrôle (comme la CNIL en France) qui créent un « conflit de lois » en cas de demande d’accès via le CLOUD Act.
Concrètement, si une autorité américaine demandait l’accès à des données stockées dans ces zones, le fournisseur d’infrastructure se trouverait dans l’illégalité vis-à-vis du droit européen s’il obtempérait directement. Cela oblige le déclenchement de procédures judiciaires internationales complexes (commissions rogatoires), offrant ainsi une protection factuelle très supérieure à un hébergement situé au Royaume-Uni ou aux États-Unis.
Une expertise sur mesure : le bon modèle pour chaque tâche
L’efficacité d’une intelligence artificielle dépend de sa spécialisation. C’est pourquoi notre plateforme intègre une sélection rigoureuse de plusieurs modèles, nous permettant de choisir l’outil le plus performant pour chaque type de mission :
- l’analyse complexe et la génération de rapports structurés (JSON), en utilisant des modèles experts dans l’extraction et le formatage de données avec une très haute fidélité,
- la traduction et la rédaction, en faisant appel à des modèles reconnus pour leur finesse linguistique et leur créativité,
- la génération de code informatique, en mobilisant des modèles spécialisés et entraînés sur des milliards de lignes de code pour une pertinence technique maximale,
- les analyses métiers spécifiques, grâce à notre propre modèle d’IA, développé en interne par nos experts pour offrir des diagnostics uniques et parfaitement adaptés à vos cas d’usage.
Cette approche multi-modèles garantit non seulement la sécurité, mais aussi la plus haute qualité de résultat pour chaque besoin spécifique.
De l’IA pour quels usages ?
Pour Streamlike, il s’agit par exemple de générer des titres, des résumés ou des chapitres sur la base des retranscriptions, et ce dans n’importe quelle langue. Il s’agit aussi de générer des mots-clés à associer à un média ou de les identifier par rapport à une liste existante. Avec notre IA privée, enrichissez rapidement et facilement votre médiathèque sans compromis sur la confidentialité de vos données.
Pour medIAnalyst, l’IA sert à l’analyse de retranscriptions de focus groups, de messages vidéo ou de messages vocaux – par exemple recueillis via Vocalyze.
Informations commerciales et tarification
L’accès à la plateforme d’IA privée de Mediatech est proposé dans le cadre de nos services, avec une tarification adaptée à la complexité des modèles mobilisés et aux ressources de calcul (GPU) consommées.
Pour obtenir plus d’informations et discuter de la manière dont cette solution peut répondre à vos enjeux, notre service commercial est à votre disposition.