Recherche avancée

Médias (5)

Mot : - Tags -/open film making

Autres articles (51)

  • La sauvegarde automatique de canaux SPIP

    1er avril 2010, par

    Dans le cadre de la mise en place d’une plateforme ouverte, il est important pour les hébergeurs de pouvoir disposer de sauvegardes assez régulières pour parer à tout problème éventuel.
    Pour réaliser cette tâche on se base sur deux plugins SPIP : Saveauto qui permet une sauvegarde régulière de la base de donnée sous la forme d’un dump mysql (utilisable dans phpmyadmin) mes_fichiers_2 qui permet de réaliser une archive au format zip des données importantes du site (les documents, les éléments (...)

  • Script d’installation automatique de MediaSPIP

    25 avril 2011, par

    Afin de palier aux difficultés d’installation dues principalement aux dépendances logicielles coté serveur, un script d’installation "tout en un" en bash a été créé afin de faciliter cette étape sur un serveur doté d’une distribution Linux compatible.
    Vous devez bénéficier d’un accès SSH à votre serveur et d’un compte "root" afin de l’utiliser, ce qui permettra d’installer les dépendances. Contactez votre hébergeur si vous ne disposez pas de cela.
    La documentation de l’utilisation du script d’installation (...)

  • Utilisation et configuration du script

    19 janvier 2011, par

    Informations spécifiques à la distribution Debian
    Si vous utilisez cette distribution, vous devrez activer les dépôts "debian-multimedia" comme expliqué ici :
    Depuis la version 0.3.1 du script, le dépôt peut être automatiquement activé à la suite d’une question.
    Récupération du script
    Le script d’installation peut être récupéré de deux manières différentes.
    Via svn en utilisant la commande pour récupérer le code source à jour :
    svn co (...)

Sur d’autres sites (6776)

  • avformat/wtvenc : pad judiciously when writing mpeg2 extradata

    30 mars 2014, par Peter Ross
    avformat/wtvenc : pad judiciously when writing mpeg2 extradata
    

    Padding rule described here http://msdn.microsoft.com/en-us/library/windows/desktop/dd390707(v=vs.85).aspx

    Signed-off-by : Peter Ross <pross@xvid.org>
    Signed-off-by : Michael Niedermayer <michaelni@gmx.at>

    • [DH] libavformat/wtvenc.c
    • [DH] tests/ref/lavf/wtv
    • [DH] tests/ref/seek/lavf-wtv
  • Audio offset get wrong after some time when streaming audios

    7 septembre 2024, par Antoine Grenard

    I use microsoft-cognitiveservices-speech-sdk (1.38.0) in order to do real time speech to text.&#xA;It seems like the offset is right when I send a full audio but it is wrong when I send it cut in a lot of audio chunks.

    &#xA;

    The more there is audio chunks the more inaccurate the offset is :

    &#xA;

      &#xA;
    • No chunks : 1 726 300 000
    • &#xA;

    • 369 chunks of 0.5 seconds : 1 729 600 000
    • &#xA;

    • 923 chunks of 0.2 seconds : 1 744 600 000
    • &#xA;

    • 1443 chunks of 0.1 seconds : 1 757 900 000
    • &#xA;

    &#xA;

    To reproduce here is some piece of code :

    &#xA;

        const speechConfig = SpeechConfig.fromSubscription(<key>,  {console.log(event)}&#xA;    speechRecognizer.canceled = async (recognizer, event) => {console.log(event)}&#xA;    speechRecognizer.startContinuousRecognitionAsync();&#xA;&#xA;    for (let i = 1; i &lt;= 1443; i&#x2B;&#x2B;) {&#xA;      const formattedNumber = i.toString().padStart(4, &#x27;0&#x27;);&#xA;      const buffer = fs.readFileSync(`/var/tmp/chunks/output_${formattedNumber}.wav`);&#xA;      pushStream.write(buffer);&#xA;    }&#xA;</key>

    &#xA;

    To create the audio chunks :

    &#xA;

    ffmpeg -i  -f segment -segment_time 0.1 -c copy output_%04d.wav&#xA;

    &#xA;

    Here is the audio link : https://drive.google.com/file/d/1H_RJuqMiBaVkpo9XHrgp1bpuFdgQl64O/view?usp=sharing

    &#xA;

    Thanks for your help

    &#xA;

  • Synchronize video subtitle with text-to-speech voice

    8 décembre 2015, par Ahmad

    I try to create a video of a text in which the text is narrated by text-to-speech.

    To create the video file, I use the VideoFileWriter of Aforge.Net as the following :

    VideoWriter = new VideoFileWriter();

    VideoWriter.Open(CurVideoFile, (int)(Properties.Settings.Default.VideoWidth),
       (int)(Properties.Settings.Default.VideoHeight), 25, VideoCodec.MPEG4, 800000);

    To read aloud the text I use SpeechSynthesizer class and write the output to a wave stream

    AudioStream = new FileStream(CurAudioFile, FileMode.Create);
    synth.SetOutputToWaveStream(AudioStream);

    I want to highlight the word is spoken in the video, so I synchronize them by the SpeakProgress event :

       void synth_SpeakProgress(object sender, SpeakProgressEventArgs e)
       {

           curAuidoPosition = e.AudioPosition;
           using (Graphics g = Graphics.FromImage(Screen))
           {
                g.DrawString(e.Text,....);
           }                    
           VideoWriter.WriteVideoFrame(Screen, curAuidoPosition);
       }

    And finally, I merge the video and audio using ffmpeg

    using (Process process = new Process())
    {
             process.StartInfo.FileName = exe_path;
             process.StartInfo.Arguments = string.Format(@"-i ""{0}"" -i ""{1}"" -y -acodec copy -vcodec copy ""{2}""",
                                              avi_path, mp3_path, output_file);
    ......

    The problem is that for some voices like Microsoft Hazel, Zira and David, the video is not synchronized with the audio, and the audio is much faster than the shown subtitle. In windows 7, it works for Mircrosoft Sam

    How can I synchronize them so that it works for any text-to-speech voices ?