Recherche avancée

Médias (91)

Autres articles (48)

  • Librairies et binaires spécifiques au traitement vidéo et sonore

    31 janvier 2010, par

    Les logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
    Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
    Binaires complémentaires et facultatifs flvtool2 : (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (6672)

  • FFMPEG (windows7) can't get the output video to show more than 3 out of 10 jpgs

    26 octobre 2015, par Brooks

    I have 10 jpg files (image0.jpg, image1.jpg, image2.jpg ... image9.jpg) and one .mp3 and I’m trying to create a video but I can’t get it to show more than the first 3 images in the output.

    I played with the output -r option and for example if I change it to 30 it shows all of them but very fast so the whole video plays for under a second.

    This is my code :

    ffmpeg -i image%d.jpg -i audio.mp3 -r 1 -c:v libx264 -tune stillimage -c:a aac -strict experimental -b:a 192k -r 1/5 -pix_fmt yuv420p -shortest out.mp4

    What am I doing wrong ?

  • Mingw-w64 builded FFmpeg doesn't show any usage information

    26 octobre 2013, par user1240328

    First I wanted to modificate ffplay according to my requirments. Then I noticed that original ffplay from my build can't play some video files, but it didn't write any message to console. Then I noticed that ffmpeg also don't write any usage message when I run it without params. But it works. If I run it from terminal it's like running asynchronously ! The terminal just shows next row. I mean it asks for a next command. But the ffmpeg process is visible in task manager and it writes the output video file what I had requested !

    I created following souce file. I have modified the Makefile. So it have built the exe-file works just the same way. I have no idea how it can be.

    #include
    #include "cmdutils.h"

    const char program_name[] = "hello";
    const int program_birth_year = 2013;

    void show_help_default(const char *opt, const char *arg)
    {
       printf("zxcvbnm\n");
    }

    int main(int argc, char **argv)
    {
       printf("1234567890\n");
       return 0;
    }

    I want to prevent this behavior.

    I want to make printf working in traditional manner.

    How I build FFmpeg :

    PKG_CONFIG_PATH=/home/developer/workspace/MinGW32fs/lib/pkgconfig/ \
    SDL_CONFIG=/home/developer/workspace/MinGW32fs/bin/sdl-config \
    ./configure \
     --prefix=/home/developer/workspace/MinGW32fs \
     --extra-ldflags="-L/home/developer/workspace/MinGW32fs/lib" \
     --extra-cflags="-I/home/developer/workspace/MinGW32fs/include" \
     --arch=x86 --target-os=mingw32 --cross-prefix=i686-w64-mingw32-  \
     --pkg-config=pkg-config   --enable-libtheora --enable-libvorbis --enable-libvpx \
     --enable-outdev=sdl --enable-shared --disable-static \
     --disable-doc --disable-manpages --disable-podpages

    make
  • Ffmpeg show an image for multiple seconds before a video without re-encoding

    16 janvier 2016, par Boyen

    I’ve been looking all around for this. Problem is that most google searches end up with being about creating a video from solely PNG files.
    I’ve found this command which does the job :

    ffmpeg -y -loop 1 -framerate 60 -t 5 -i firstimage.jpg  -t 5 -f lavfi -i aevalsrc=0 -loop 1 -framerate 60 -t 5 -i secondimage.png -t 5 -f lavfi -i aevalsrc=0 -loop 1 -framerate 60 -t 5 -i thirdimage.png -t 5 -f lavfi -i aevalsrc=0 -i "shadowPlayVid.mp4" -filter_complex "[0:0][1:0][2:0][3:0][4:0][5:0][6:0][6:1] concat=n=4:v=1:a=1 [v] [a]" -map [v] -map [a] output.mp4 >> log_file1.txt 2>&1

    But it seems to reencode the whole video, the input video is H.264 without CFR, but it seems to me that putting just some images before the video shouldn’t take too long.

    Because it ends up encoding the whole thing, this takes about 2 hours with a video of 30 minutes on a strong computer, while I feel like without encoding this should be able to be done much quicker. How do I make sure it doesn’t re-encode while maintaining every image showing for 5 seconds first ?