Recherche avancée

Médias (1)

Mot : - Tags -/ipad

Autres articles (66)

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

  • D’autres logiciels intéressants

    12 avril 2011, par

    On ne revendique pas d’être les seuls à faire ce que l’on fait ... et on ne revendique surtout pas d’être les meilleurs non plus ... Ce que l’on fait, on essaie juste de le faire bien, et de mieux en mieux...
    La liste suivante correspond à des logiciels qui tendent peu ou prou à faire comme MediaSPIP ou que MediaSPIP tente peu ou prou à faire pareil, peu importe ...
    On ne les connais pas, on ne les a pas essayé, mais vous pouvez peut être y jeter un coup d’oeil.
    Videopress
    Site Internet : (...)

  • Personnaliser les catégories

    21 juin 2013, par

    Formulaire de création d’une catégorie
    Pour ceux qui connaissent bien SPIP, une catégorie peut être assimilée à une rubrique.
    Dans le cas d’un document de type catégorie, les champs proposés par défaut sont : Texte
    On peut modifier ce formulaire dans la partie :
    Administration > Configuration des masques de formulaire.
    Dans le cas d’un document de type média, les champs non affichés par défaut sont : Descriptif rapide
    Par ailleurs, c’est dans cette partie configuration qu’on peut indiquer le (...)

Sur d’autres sites (11008)

  • C++ ffmpeg sws_getCachedContext seg fault when reading opengl buffer

    3 juillet 2022, par user19068953

    I made a program that draws some stuff on opengl, then reads the frames on the screen as rgba and encodes it as a yuv420 video, but I get a segfault when I try to send the red opengl frame to sws_getCachedContext. I used the muxing.c as the encoder and my code is as follows (I used align 256 because i have another framebuffer that uses 128) :

    


        constexpr int ALIGNMENT = 256;
    if (posix_memalign((void**)&state.glBuffer, ALIGNMENT, gl_width * gl_height * 4) != 0) 
    {
        VI_ERROR("Couldn't allocate frame buffer ");
        return false;
    }
    REGISTER("done, returning");
    return true;


    


    Then i read the frame after drawing the stuff i want :

    


            glReadPixels(0, 0,
                 gl_width, gl_height, 
                 GL_RGBA, GL_UNSIGNED_BYTE, 
                 (GLvoid*) state.glBuffer);


    


    The window is the same size as the gl_buffer (I know the result will be flipped, thats ok)

    


    And finally i send it to the encoder(rgb_data is glBuffer) :

    


    void video_encoder::set_frame_yuv_from_rgb(AVFrame *frame, struct SwsContext *sws_context) {
    const int in_linesize[1] = { 4 * width };

width = gl_width;
height = gl_height;
sws_context = sws_getCachedContext(sws_context,
        width, height, AV_PIX_FMT_RGBA,
        width, height, AV_PIX_FMT_YUV420P,
        0, 0, 0, 0);
        
sws_scale(sws_context, (const uint8_t * const *)&rgb_data, in_linesize, 0,
        height, frame->data, frame->linesize);
}


    


    I get a seg fault on sws_getCachedContext any idea why this happens and how do i fix it ?

    


    Edit : width = 512, height = 256, valgrind says : Invalid read of size 16.

    


  • Retrieving RTP/RTSP Absolute Timestamps through FFmpeg using Opencv

    6 septembre 2019, par Fr0sty

    This is an update to my previous post. I am able to get the RTP timestamps by using ffmpeg and opencv currently, however, I am trying to actually get the timestamp at which the frame was captured. I did a work around to try find the time at which the frame was captured (code is in python).

    seconds_before_frame = cap.getRTPTimeStampSeconds()
    fractionofseconds_before_frame = cap.getRTPTimeStampFraction()
    ret, frame = cap.read()
    seconds_after_frame = cap.getRTPTimeStampSeconds()
    fractionofseconds_after_frame = cap.getRTPTimeStampFraction()

    By doing this I found that the time captured was off by 0.02359296 seconds and sometimes 0.2359296 seconds, that’s a lot more than I had expected.

    I found some work arounds with trying to get the timestamp of the frame by using AVFormatContext which I didn’t really understand through the priv_data.

    AVPacket* packet;
    av_read_frame(formatCtx, packet);
    RTSPState* rtspState = formatCtx->priv_data;
    RTPDemuxContext *rtpdemux = rtspState->rtsp_streams[packet->stream_index]->transport_priv;

    as well as

    RTSPState *state = _formatCtx->priv_data;
    RTSPStream *stream = state->rtsp_streams[0];
    RTPDemuxContext *demux = stream->transport_priv;
    demux→timestamp

    I’d like to ask how can we call AVFormatContext from C++ side, is it through av_read_frame ? Is it possible to use python bindings or VideoCapture already wraps ffmpeg so there is no need to use av_read_frame but just call VideoCapture ?

  • Why does ffmpeg burn Chinese subtitles(ass) without word wrap?

    10 mai 2023, par bjjoy

    my ffmpeg burn subtitle example

    


    ffmpeg burn ass subtitle to mp4. The properties WrapStyle(0:word wrap, 1 : the char '\N' or movie edge force change line, 2 : only \n and \N change line).

    


    English subtitle run OK.
Chinese subtitle has no word wrap when WrapStyle=0.