Recherche avancée

Médias (1)

Mot : - Tags -/école

Autres articles (34)

  • Soumettre améliorations et plugins supplémentaires

    10 avril 2011

    Si vous avez développé une nouvelle extension permettant d’ajouter une ou plusieurs fonctionnalités utiles à MediaSPIP, faites le nous savoir et son intégration dans la distribution officielle sera envisagée.
    Vous pouvez utiliser la liste de discussion de développement afin de le faire savoir ou demander de l’aide quant à la réalisation de ce plugin. MediaSPIP étant basé sur SPIP, il est également possible d’utiliser le liste de discussion SPIP-zone de SPIP pour (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Librairies et binaires spécifiques au traitement vidéo et sonore

    31 janvier 2010, par

    Les logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
    Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
    Binaires complémentaires et facultatifs flvtool2 : (...)

Sur d’autres sites (6037)

  • Where is my ffmpeg stream getting saved to ?

    14 mars 2013, par Chris

    I'm just starting to explore ffmpeg (ultimately for use with openCV), and I'm running this command :

    root@beaglebone:/# ffmpeg -f video4linux2 -r 25 -s 640x480 -i /dev/video0 /out.avi

    At which point the camera indicator light turns on and it appears to be capturing. However when I end it with CTRL+C, the file is nowhere to be found.

    Any thoughts ?

    Full output :

    root@beaglebone:/# ffmpeg -f video4linux2 -r 25 -s 640x480 -i /dev/video0 /out.avi
    ffmpeg version v0.7.4, Copyright (c) 2000-2011 the Libav developers
     built on Oct  9 2012 10:50:57 with gcc 4.5.4 20120305 (prerelease)
     configuration: --enable-shared --enable-pthreads --enable-gpl --enable-postproc --enable-avfilter --cross-prefix=arm-angstrom-linux-gnueabi- --prefix=/usr --enable-ffserver --enable-ffplay --enable-x11grab --enable-libtheora --enable-libvorbis --arch=arm --target-os=linux --enable-cross-compile --extra-cflags=' -fexpensive-optimizations -fomit-frame-pointer -O4 -ffast-math -march=armv7-a -fno-tree-vectorize -mthumb-interwork -mfloat-abi=softfp -mfpu=neon -mtune=cortex-a8 --sysroot=/home/koen/setup-scripts/build/tmp-angstrom_v2012_05-eglibc/sysroots/beaglebone' --extra-ldflags='-Wl,-O1 -Wl,--hash-style=gnu -Wl,--as-needed' --sysroot=/home/koen/setup-scripts/build/tmp-angstrom_v2012_05-eglibc/sysroots/beaglebone --enable-hardcoded-tables --cpu=cortex-a8
     libavutil    51.  7. 0 / 51.  7. 0
     libavcodec   53.  6. 0 / 53.  6. 0
     libavformat  53.  3. 0 / 53.  3. 0
     libavdevice  53.  0. 0 / 53.  0. 0
     libavfilter   2.  4. 0 /  2.  4. 0
     libswscale    2.  0. 0 /  2.  0. 0
     libpostproc  52.  0. 0 / 52.  0. 0
    ^C
    root@beaglebone:/# ls
    bin   dev  home  lost+found  mnt  proc  sbin  tmp  var
    boot  etc  lib   media       opt  run   sys   usr
    root@beaglebone:/#
  • FFmpeg tee muxer

    14 février 2013, par deed02392

    I'm trying to use the Tee muxer recently introduced to FFmpeg, to both output a stream over UDP and render the output in an SDL window.

    This is because I want to measure latency in my live broadcast system between the input to FFmpeg and its output (i.e. the encoding process latency).

    Can anyone explain how to use it properly ? This is what I have tried :

    ffmpeg -re -i ......\sample_ipod.m4v -f tee "[f=mpegts]udp ://127.0.0.1:1233|[f=sdl]foo"

    I understood this should result in an output stream to UDP and that I could specify additional formats by enclosing like [f=sdl] to mean -f sdl. Then because the sdl muxer requires an argument (the window title) I provided this in the same way the example gives for the stream.

    Hope some FFmpeg expert can shed some light on this. I've even scanned the code that adds the Tee muxer to no avail.

  • How to pass command line arguments to FFMpeg in iOS

    23 septembre 2014, par Arif Nadeem

    This is a beginner question, since I am new to iOS(I started it today), so please pardon my ignorance and lack of iOS knowledge.

    After building and successfully using FFMpeg for Android I wanted to do the same for iOS.
    So I built FFMpeg successfully for iOS by following this link, but after all that pain I am confused as how to use FFMpeg in iOS, I mean how can I pass command line arguments to libffmpeg.a file ?

    I am assuming that there must be a way to run the .a file as an executable and then pass command line arguments and hope for FFMpeg to do the magic, I did the same in Android and it worked beautifully.

    I am also aware that I can use ffmpeg.c class and use its main method, but the question remains ; how do I pass those command line arguments ?

    Is there something I am supposed to be aware of here, is the thing what I am doing now correct or am I falling short on my approach ?

    I wanted to mix two audio files, so the command for doing that would be ffmpeg -i firstSound.wav -i secondSound.wav -filter_complex amix=inputs=2:duration=longest finalOutput.wav, how do I do the same in iOS ?

    Can someone please shed some light on this ?