Recherche avancée

Médias (1)

Mot : - Tags -/publier

Autres articles (67)

  • Les vidéos

    21 avril 2011, par

    Comme les documents de type "audio", Mediaspip affiche dans la mesure du possible les vidéos grâce à la balise html5 .
    Un des inconvénients de cette balise est qu’elle n’est pas reconnue correctement par certains navigateurs (Internet Explorer pour ne pas le nommer) et que chaque navigateur ne gère en natif que certains formats de vidéos.
    Son avantage principal quant à lui est de bénéficier de la prise en charge native de vidéos dans les navigateur et donc de se passer de l’utilisation de Flash et (...)

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

Sur d’autres sites (8539)

  • ffmpeg : 1 image + 1 audio file = 1 video [on hold]

    15 février 2016, par matteo

    This should be pretty trivial but I can’t find a way to get it to work.

    I want ffmpeg to take one jpg image and an audio file as input and generate a video file of the same duration as the audio file (by stretching the still image for the whole duration).

    I don’t care very much about what video codec is used for output but it is vital that I can use "copy" as the audio codec (i.e. copy the audio stream without transcoding it).

    What is the right command line that would do that ?

    I tried :

    ffmpeg -i image8.jpg -i sound11.amr -acodec copy test.avi

    and tried a lot of combinations with and without -s 640x360, -loop_input, -shortest, -t xxx, -r 0.1 (artificially low frame rate in the hope that the video would be longer) and -f image2

    Either I get errors or I get a video file of the duration of one frame.

    I’ve googled around and found a dozen of proposed solutions (supposedly to this very same question) none of which works.

    Can anybody suggest a working command and explaing the rationale behind it ?

  • Live Stream Android Screen

    27 janvier 2012, par salamis

    I would like to stream Android Screen using FFMPEG and MonkeyRunners(MonkeyImage)

    I found a good Tutorial for streaming your webcam using FFMPEG and video4linux2.

    Is it possible to send the bytes from the Monkeyrunner.MonkeyImage to the FFMPEG to be converted to a live video stream ?

    Actual code :

    $ffmpeg -f video4linux2 -i /dev/video0 http://78.47.18.19:8090/cam1.ffm

    Replace it with something similar to :

    $ffmpeg -f video4linux2 -i <add here="here" python="python" stream="stream"> http://78.47.18.19:8090/cam1.ffm
    </add>

    Any suggestions ?

  • Encoding videos for use with Adobe Live Streaming

    10 mai 2016, par FiddleMeRagged

    I have an original video coded at 20Mbps, 1920x1080, 30fps and want to convert it down to be 640x480 30fps at a range of (3 different) bitrates for use by Adobe Live Streaming.

    Should I use ffmpeg to resize and encode at the 3 bitrates then use f4fpackager to create the f4m f4f and f4x files or just use ffmpeg to reduce the resolution and then f4fpackager to encode the relevant bitrates ?

    I’ve had several tries so far, but when encoded the videos seem to play at a much larger bitrate than they’ve been encoded at. For example, if I set up the OSMF to play from my webserver, I’d be expecting my best encoded video to play at 1,500kbps but it’s way above that.

    Has anyone had any experience of encoding for use like this ?

    I’m using the following options to f4fpackager

    --bitrate=1428 --segment-duration 30 --fragment-duration 2