La reconnaissance automatique fait gagner un temps considérable par rapport à la saisie manuelle. Il faut environ 8 heures d’un travail très fatigant pour traiter « à la main » un média d’une heure, comme l’enregistrement d’une conférence.
La qualité de la retranscription est meilleure si on indique quelle est la langue parlée, s’il n’y a pas de bruit ambiant et si les propos sont bien intelligibles, sans accents et ne se chevauchent pas. Il est exceptionnel qu’une retranscription automatique ne doive pas être corrigée manuellement, pour l’orthographe, l’interprétation de noms propres, de marques ou d’acronymes exotiques et surtout pour la ponctuation.
Avec la technique du « perroquet » ou « respeaking », un rédacteur répète in extenso tout ce qu’il entend dans l’enregistrement, en articulant bien et en marquant bien les ponctuations, ce qui fournit un son « propre » au logiciel de reconnaissance automatique qui commettra moins d’erreurs… mais il en commettra toujours.
Différence entre transcription et sous-titres
Une retranscription par reconnaissance automatique permet de produire une transcription (un texte) et des sous-titres (un texte structuré avec des indications temporelles).
La transcription est une métadonnée d’un média qui répond à un besoin d’accessibilité, pour retranscrire la piste audio du média à une personne malentendante, et de recherche textuelle ou de SEO. La transcription est un texte. On peut la lire sans jouer le média (audio ou vidéo).
Les sous-titres n’apparaissent qu’à la lecture du média, auxquels ils sont synchronisés. On peut les activer pour les faire apparaître en superposition du lecteur, choisir une langue parmi celles qui sont disponibles, ou les désactiver.
La traduction des sous-titres
La traduction automatique d’une retranscription automatique ajoute une couche d’erreur a une donnée de base peu fiable.
On peut facilement soumettre un fichier de sous-titres à une IA de traduction (Google, Azure, DeepL, ou même Chat-GPT), que ce soit via une interface en ligne (en copier-coller) ou via son API. En général, le formatage et les time-codes seront ignorés, le texte sera traduit et les formatages seront remis en place. On aura donc exactement la même temporalité et la même synchronisation dans toutes les langues, même si les textes traduits ont des longueurs très différentes. Surtout, le sens du texte sera fortement déformé si la ponctuation de départ était incorrecte et si chaque portion d’une phrase portion est traduite sans considérer la phrase dans sa globalité.
Pour traduire le plus rapidement des sous-titres, il est donc conseillé de procéder de la manière suivante:
- produire automatiquement des sous-titres dans la langue du média
- corriger les sous-titres
- générer une transcription des sous-titres corrigés
- traduire la transcription avec une IA
- synchroniser la transcription avec le média pour générer le nouveau fichier de sous-titres
Il existe de nombreux outils gratuits de synchronisation de sous-titres. Nous recommandons Media Subtitler, dont l’interface est très pratique et qui permet de sous-titrer manuellement en temps réel (une minute de vidéo sous-titrée en une minute).
Sur Streamlike
On peut générer automatiquement une transcription et/ou des sous-titres à partir de n’importe quel média en indiquant la langue parlée. Pour des retranscriptions de médias de plus de 5′, il faut souscrire une option spécifique.
Grâce à l’éditeur de sous-titres, on peut les corriger manuellement et générer une transcription corrigée, débarrassée de tout formatage.
La transcription corrigée peut alors être traduite automatiquement puis synchronisée manuellement pour produire des sous-titres traduits.
On peut aussi directement soumettre les sous-titres corrigés à un traducteur, ce qui fait gagner beaucoup de temps, mais il faut s’attendre à des erreurs de sens et de synchronisation.
Exemple de retranscription automatique
Nous avons choisi une scène des « Tontons flingueurs » pour montrer ce que l’IA comprend des dialogues et ce qu’il aurait fallu comprendre. Sélectionnez la langue IA (ici par défaut) pour voir ce qui a été compris, FR pour voir la version corrigée et EN ou DE pour voir les traductions en anglais et allemand de la version corrigée. Nous n’avons corrigé que les textes, rajoutant parfois ce qui n’avait pas été entendu, mais nous n’avons pas corrigé les instants d’apparition et les durées d’affichage des sous-titres. On peut donc (beaucoup) mieux faire.
Nos recommandations
En conclusion, la retranscription automatique fait gagner du temps mais on peut rarement se dispenser de corrections manuelles.
Sauf dans des cas idéaux où les erreurs seront peu nombreuses, nous déconseillons de faire des sous-titrages automatiques sans corrections.
L’éditeur de sous-titres de Streamlike suffit pour des corrections simples, mais pour de grosses corrections, nous conseillons de corriger la transcription automatique (ce qui est très rapide) et de recréer des sous-titres par synchronisation manuelle.
Dès lors qu’un sous-titrage est correct, sa traduction directe peut donner de bons résultats. La traduction de la transcription et sa re-synchronisation donnera un résultat parfait.
N’hésitez pas à nous contacter pour une étude précise de votre besoin.