Recherche avancée

Médias (91)

Autres articles (40)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

  • Librairies et binaires spécifiques au traitement vidéo et sonore

    31 janvier 2010, par

    Les logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
    Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
    Binaires complémentaires et facultatifs flvtool2 : (...)

Sur d’autres sites (7306)

  • lavc : add trailing_padding to AVCodecContext to match AVCodecParameters.

    15 août 2016, par Jon Toohill
    lavc : add trailing_padding to AVCodecContext to match AVCodecParameters.
    

    Shows encoder delay/padding in the stream summary if they are set.

    Signed-off-by : Michael Niedermayer <michael@niedermayer.cc>

    • [DH] doc/APIchanges
    • [DH] libavcodec/avcodec.h
    • [DH] libavcodec/utils.c
    • [DH] libavcodec/version.h
  • avcodec/adxenc : match prediction used in the decoder

    30 novembre 2014, par Michael Niedermayer
    avcodec/adxenc : match prediction used in the decoder
    

    The prediction used in the encoder was not correct

    Signed-off-by : Michael Niedermayer <michaelni@gmx.at>

    • [DH] libavcodec/adxenc.c
    • [DH] tests/ref/acodec/adpcm-adx
    • [DH] tests/ref/acodec/adpcm-adx-trellis
  • How to Adjust Google TTS SSML to Match Original SRT Timing ?

    2 avril, par Alexandre Silkin

    I have an .srt file where each speech segment is supposed to last a specific duration (e.g., 4 seconds). However, when I generate the speech using Google Text-to-Speech (TTS) with SSML, the resulting audio plays the same segment in a shorter time (e.g., 3 seconds).

    &#xA;

    I want to adjust the speech rate dynamically in SSML so that each segment matches its original timing. My idea is to use ffmpeg to extract the actual duration of each generated speech segment, then calculate the speech rate percentage as :&#xA;generated duration&#xA;speech rate = --------------------&#xA;original duration

    &#xA;

    This percentage would then be applied in SSML using the tag, like :&#xA;Text to be spoken

    &#xA;

    How can I accurately measure the duration of each segment using ffmpeg, and what is the best way to apply the correct speech rate in SSML to match the original .srt timing ?

    &#xA;

    I tried duration and my SSML should look like this :

    &#xA;

            f.write(f&#x27;\t<p>{break_until_start}{text}<break time="{value["></break></p>\n&#x27;)&#xA;

    &#xA;

    Code writing the SSML :

    &#xA;

    text = value['text']&#xA;start_time_ms = int(value['start_ms']) # Start time in milliseconds&#xA;previous_end_ms = int(subsDict.get(str(int(key) - 1), {}).get('end_ms', 0)) # Get the previous end time&#xA;gap_to_fill = max(0, start_time_ms - previous_end_ms)

    &#xA;

            text = text.replace("&amp;", "&amp;amp;").replace(&#x27;"&#x27;, "&amp;quot;").replace("&#x27;", "&amp;apos;").replace("&lt;", "&amp;lt;").replace(&#xA;            ">", "&amp;gt;")&#xA;&#xA;        break_until_start = f&#x27;<break time="{gap_to_fill}ms"></break>&#x27; if gap_to_fill > 0 else &#x27;&#x27;&#xA;&#xA;        f.write(f&#x27;\t<p>{break_until_start}{text}<break time="{value["></break></p>\n&#x27;)&#xA;&#xA;    f.write(&#x27;\n&#x27;)&#xA;

    &#xA;