Recherche avancée

Médias (91)

Autres articles (55)

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

  • L’utiliser, en parler, le critiquer

    10 avril 2011

    La première attitude à adopter est d’en parler, soit directement avec les personnes impliquées dans son développement, soit autour de vous pour convaincre de nouvelles personnes à l’utiliser.
    Plus la communauté sera nombreuse et plus les évolutions seront rapides ...
    Une liste de discussion est disponible pour tout échange entre utilisateurs.

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

Sur d’autres sites (11282)

  • two data streams into one ffmpeg stream

    1er juin 2022, par user5285766

    I have two data streams, each representing a rabbitmq subscriber. Inside audio and video streams, data is in the form of bytes. Something like :

    


    vp = VideoProcess()
ap = AudioProcess()


async def receive_video_data(message: IncomingMessage):
    async with message.process():
        await vp.process(frame=message.body)


async def receive_audio_data(message: IncomingMessage):
    async with message.process():
        await ap.process(packet=message.body)




    


    I wanted to take this data from each stream and put it in the ffmpeg stream, which would open the port on the service. So that I can broadcast this data to other subsystems in the form of an ffmpeg stream (for example, to broadcast audio and video to my html page). Can you tell me what are the options for this task ?

    


    process = sp.Popen(
    shlex.split(
        f"ffmpeg -i ...."
    ))



    


  • FFMPEG : How input data is fed to the decoders

    12 février 2014, par sam

    In FFMPEG, there are many video decoders integrated. One of them is H264. Now, in FFMPEG, which part of the decoder is taking care of providing the decoder with necessary input data to the decoder, so that it can decode it ?

    I have gone through most of the code of the decoder, but am not able to find where fread of anything is happening.

    All i got to know is there is a file called file.c in libavutils directory of the FFMPEG source. In this file there is a read() function used. But, how is it that the h.264 decoder conveying this to the ffmpeg to send some data to decode.

    Any pointers regarding the same will be really helpful to me. Please do provide your valuable suggestions.

    Thanks in advance.

  • ffmpeg AVFrame get full decoded data to char*

    20 décembre 2018, par mmmaaak

    I get Frames in loop and decode it with ffmpeg getting AVFrame as e result of it.

    So I must get neccessary pixel data of frame into char* and give as a callback function’s parameter. So how I can generete such char* array ? In internet I saw some examples such as :

    for(y=0; ydata[0]+y*pFrame->linesize[0], 1, width*3, pFile);
    }

    or something like this. Is it true ? And which size would be my char* ? As I see we write width*3 *height bytes ?