Recherche avancée

Médias (1)

Mot : - Tags -/géodiversité

Autres articles (47)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (6584)

  • ffmpeg concatenation of live streams with different codecs

    14 mai 2015, par ashishgupta_mca

    Great information is given on https://trac.ffmpeg.org/wiki/Concatenate of how to concat two files of different codecs and I tried option "Concat filter" for two files and it works as expected.

    I wish to have the concatenation of live streams from two webcams on timely basis. E.g. first camera live stream will be shown for 60 sec and then second camera live stream for 60 sec and then again first camera live stream for 60 sec.... Process continues

    This is to create concatenation on fly to reduce gaps between two streams switching.

    Is this possible by using ffmpeg concatenation ?

    Any direction will be much appreciated.

    Thanks a lot in advance.

  • Webcam live preview with FFMPEG

    17 juin 2013, par Edoardo

    Is it possible to display a window with a live preview of a WebCam with ffmpeg (or ffmplay) ?

    I am able to capture video from a webcam but not to display it live by command line.

  • Live Streaming using ffmpeg

    28 novembre 2014, par Tom

    Iam using following command in linux to stream RTSP videos to RTMP live streaming using ffmpeg

    ffmpeg -i "rtsp://mystreamingurl" -r 25  -s 640x400 -f flv -an  "rtmp://mylivestream/live"

    But Iam getting following Error while streaming, which is dropping the packets,

    q=2.0 size=      60kB time=0.08 bitrate=6149.4kbits/s dup=0 drop=5084  

    Can anybody help me please ?