Recherche avancée

Médias (1)

Mot : - Tags -/framasoft

Autres articles (49)

  • Des sites réalisés avec MediaSPIP

    2 mai 2011, par

    Cette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
    Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

Sur d’autres sites (8284)

  • Is there a way to store packet header information from an incoming h.264 stream ?

    13 septembre 2021, par SOSparachuter1

    The issue : I need to convert an h.264 stream streamed over RTP into MJPEG, but for very convoluted reasons I am required to use the libjpeg-turbo library, not the mjpeg encoder that comes with ffmpeg. So the only thing FFMPEG needs to do is convert the h.264 RTP stream to rawvideo in RGBA and output to a socket where I then manually do the transcoding.

    


    However, libjpeg-turbo only expects complete frames, meaning I need to collect rawvideo packet fragments and somehow synchronize them. Putting incoming raw video fragments into a buffer as they come results in heavily broken images.

    


    Is there some way of saving the header information of the initial h.264 RTP packets ? The command I'm currently using is very straightforward :

    


    -i rtsp :// : -vcodec rawvideo -f rawvideo udp :// :

    


  • avcodec/cbs_mpeg2 : fix leak of extra_information_slice buffer in cbs_mpeg2_read_slice...

    22 mai 2019, par James Almer
    avcodec/cbs_mpeg2 : fix leak of extra_information_slice buffer in cbs_mpeg2_read_slice_header()
    

    cbs_mpeg2_free_slice() calls av_buffer_unref() on extra_information_ref,
    meaning allocating with av_malloc() was not the intention.

    Signed-off-by : James Almer <jamrial@gmail.com>

    • [DH] libavcodec/cbs_mpeg2_syntax_template.c
  • What is video_track_timescale in ffmpeg ? [duplicate]

    12 mai 2019, par Sasidharan S

    This question already has an answer here :

    Can some one explain what is exact meaning of video_track_timescale ?

    And how the value of video_track_timescale is fixed ?

    For example I saw some configuration with -video_track_timescale 1000 may I know why and how 1000 is used ?