Recherche avancée

Médias (91)

Autres articles (50)

  • Qu’est ce qu’un éditorial

    21 juin 2013, par

    Ecrivez votre de point de vue dans un article. Celui-ci sera rangé dans une rubrique prévue à cet effet.
    Un éditorial est un article de type texte uniquement. Il a pour objectif de ranger les points de vue dans une rubrique dédiée. Un seul éditorial est placé à la une en page d’accueil. Pour consulter les précédents, consultez la rubrique dédiée.
    Vous pouvez personnaliser le formulaire de création d’un éditorial.
    Formulaire de création d’un éditorial Dans le cas d’un document de type éditorial, les (...)

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

  • Ajouter des informations spécifiques aux utilisateurs et autres modifications de comportement liées aux auteurs

    12 avril 2011, par

    La manière la plus simple d’ajouter des informations aux auteurs est d’installer le plugin Inscription3. Il permet également de modifier certains comportements liés aux utilisateurs (référez-vous à sa documentation pour plus d’informations).
    Il est également possible d’ajouter des champs aux auteurs en installant les plugins champs extras 2 et Interface pour champs extras.

Sur d’autres sites (6486)

  • How can I concatenate MP4 videos and exactly match this combined video to an audio track in ffmpeg ?

    17 juin 2020, par mattador

    Basically I want to combine 4 videos into a single video, then swap out the concatenated audio for another track. The audio track needs to be unaltered and sync exactly to the video.

    



    Specifically, I'm creating multipaged dynamic audio spectrograms (visualizations of a sound file) using ggplot2 and gganimate in R, which I want to combine using ffmpeg. So the original WAV is chopped up into 3 sec segments, a video is created to visualize frequency changes over time for each segment, which I want to combine into 1 video with the original audio track matched up.

    



    All of my relevant files are at github here in the vids folder : DL link here

    



    The individual dynamic spectrograms export fine (1-4.mp4 in the archive). They are each 20ms too long ; they should be exactly 3s, but otherwise great.

    



    I then use ffmpeg to concatenate them :

    



    ffmpeg -f concat -safe 0 -i "mp4Segments.txt" -codec copy -t 12 -y "(1-4)vid.mp4"


    



    but you can see the end of (1-4)vid.mp4 is getting a little off (the cursor is not all the way to the end, so I guess the video is getting cut off before the end. Not a deal-breaker, since the audio still aligns very well to the video cursor.

    



    Now, since the concatenated video introduces glitchy audio between clips, I want to take the uncut original audio and add that to the assembled video.

    



    ffmpeg -ss 0 -i "(1-4)vid.mp4" -i "origWAV.wav"  -c:v libx264 -map 0:v:0 -map 1:a:0 -c:a aac -ac 1 -b:a 192k -y -vsync 1 -t 12 "(1-4)vid+origWAV.mp4"


    



    but the audio is slightly off now, and ends even further before the end of the video. Since it's really important to align audio and video precisely for this, how can I speed up the video to fit the exact duration of the audio or otherwise fix this issue ?

    


  • FFMPEG.wasm Cannot Add Album Cover To MP3 File

    5 juillet 2022, par Shaan Khan

    for a project I'm working on I'm trying to split a video into multiple audio clips whilst adding metadata for each individual track. Whilst doing this, whilst I've added most of the metadata including title & artist, I'm unable to add an album cover via FFMPEG.wasm. Whilst my command works fine with regular FFMPEG.wasm, I'm unable to get it to work via the webassembly version.

    


    I'm aware that my album cover is correctly being assigned via FS.readfile and that my command in theory should work, but I'm unable to figure out why it isn't working. Is this a FFMPEG.wasm limitation and if so, is there any workaround for this ?

    


      

    • Normal FFMPEG Command
    • 


    


    ffmpeg -i "song.mp3" -i albumCover.jpg -map 0:0 -map 1:0 -y -codec:a libmp3lame -ac 2 -ar 48000 -ab 320k -ss 00:00:00 -t 00:00:20 -id3v2_version 3  -metadata title="SongOne" -metadata album_artist="Artist Name" -metadata album="Youtube Name" -metadata track="1" "output.mp3"


    


      

    • FFMPEG WASM Implementation
    • 


    


      let commandArray = [
      "-i",
      "song.mp3",
      "-i",
      "albumCover.jpg",
      "-map",
      "0:0",
      "-map",
      "1:0",
      "-y",
      "-codec:a",
      "libmp3lame",
      "-ac",
      "2",
      "-ar",
      "48000",
      "-ab",
      "320k",
      "-ss",
      startTime.toString(),
    ];

    if (duration != "-1") {
      commandArray.push("-t", duration.toString());
    }

    commandArray.push(
      "-id3v2_version",
      "3",
      "-metadata",
      `title="${title}"`,
      "-metadata",
      `album_artist="${artist}`,
      "-metadata",
      `album="${albumInfo.name}"`,
      "-metadata",
      `track="1"`,
      `${timestamp.songName} - ${timestamp.artistName}.mp3`
    );


    


  • Concatenate two files while keeping the duration the same as the two files separately

    21 septembre 2020, par John Pollard

    When I calculate the duration of each individual file I want to concatenate I get 10.24 for both. So I figured when I concatenate the two files I would get a duration of file A plus file B or 10.24 + 10.24 giving me a total duration of 20.48 for the combined file. But no matter what command I use to concentrate I cannot get the same duration. Am I doing something wrong ?

    


    ffprobe -i "audioA.mp3" -show_entries format=duration -v quiet -of csv="p=0"
10.24 


    


    ffprobe -i "audioB.mp3" -show_entries format=duration -v quiet -of csv="p=0"
10.24 


    


    Which makes a total of 10.24 + 10.24 = 20.48 seconds

    


    But when I concatenate the files I get a different duration. Here are my different tries.

    


    Try 1

    


    FFMPEG -y -i 'concat:audioA.mp3|audioB.mp3' -map 0:a -codec:a copy -map_metadata -1 output.mp3
ffprobe -i "output.mp3" -show_entries format=duration -v quiet -of csv="p=0"
20.610612


    


    Try 2

    


    FFMPEG -y -i audioA.mp3 -i audioB.mp3 -filter_complex [0:a][1:a]concat=n=2:v=0:a=1 output.mp3
ffprobe -i "output.mp3" -show_entries format=duration -v quiet -of csv="p=0
20.453878


    


    Try 3

    


    FFMPEG -y -i 'concat:audioA.mp3|audioB.mp3' output.mp3
ffprobe -i "output.mp3" -show_entries format=duration -v quiet -of csv="p=0"
20.506122


    


      

    • Is there a command to use to concatenate that will output a file with
the same duration ?
    • 


    • Is there a way to do that without reencoding ?
    • 


    • What makes the durations different in the combined files above ?
    •