Recherche avancée

Médias (0)

Mot : - Tags -/protocoles

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (58)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Mise à disposition des fichiers

    14 avril 2011, par

    Par défaut, lors de son initialisation, MediaSPIP ne permet pas aux visiteurs de télécharger les fichiers qu’ils soient originaux ou le résultat de leur transformation ou encodage. Il permet uniquement de les visualiser.
    Cependant, il est possible et facile d’autoriser les visiteurs à avoir accès à ces documents et ce sous différentes formes.
    Tout cela se passe dans la page de configuration du squelette. Il vous faut aller dans l’espace d’administration du canal, et choisir dans la navigation (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

Sur d’autres sites (7031)

  • vaapi_h264 : Fix bit offset of slice data.

    2 avril 2016, par Mark Thompson
    vaapi_h264 : Fix bit offset of slice data.
    

    Commit ca2f19b9cc37be509d85f05c8f902860475905f8 modified the meaning of
    H264SliceContext.gb : it is now initialised at the start of the NAL unit
    header, rather than at the start of the slice header. The VAAPI slice
    decoder uses the offset after parsing to determine the offset of the
    slice data in the bitstream, so with the changed meaning we no longer
    need to add the extra byte to account for the NAL unit header because
    it is now included directly.

    Signed-off-by : Luca Barbato <lu_zero@gentoo.org>

    • [DBH] libavcodec/vaapi_h264.c
  • ffmpeg convertation imagevideo causes artefacts

    24 mars 2016, par mrgloom

    I want to convert video to images, do some image processing and convert images back to video.

    Here is my commands :

    ./ffmpeg -r 30 -i $VIDEO_NAME "image%d.png"

    ./ffmpeg -r 30 -y -i "image%d.png" output.mpg

    But in output.mpg video I have some artefacts like in jpeg.

    Also I don’t know how to detrmine fps, I set fps=30 (-r 30).
    When I use above first command without -r it produces a lot of images > 1kk, but than I use -r 30 option it produce same number of images as this command calculationg number of frames :

    FRAME_COUNT=`./ffprobe -v error -count_frames -select_streams v:0 -show_entries stream=nb_read_frames -of default=nokey=1:noprint_wrappers=1 $VIDEO_NAME`

    So my questions are :

    1. How to determine frame rate ?

    2. How to convert images to video and don’t reduce initial quality ?

    UPDATE :

    Seems this helped, after I removed -r option
    Image sequence to video quality

    so resulting command is :

    ./ffmpeg -y -i "image%d.png" -vcodec mpeg4 -b $BITRATE output_$BITRATE.avi

    but I’m still not sure how to select bitrate.

    How can I see bitrate of original .mp4 file ?

  • Torn images acquired when decoding video frames with FFmpeg

    22 mars 2016, par bot1131357

    I am trying to decode the images using the tutorial at dranger.com. Below is the code I’m working with. The code is pretty much untouched aside from pgm_save() function and replacing the deprecated functions.

    The program compiled successfully, but when I tried to process a video, I’m getting tearing effect like this : image1 and this image2.

    (Side question : I’ve tried to replace avpicture_fill() which is deprecated with av_image_copy_to_buffer() but I’m getting an access violation error, so I left it as is. I wonder if there is a proper way for me to assign the frame data to a buffer.)

    The library that I’m using is ffmpeg-20160219-git-98a0053-win32-dev. Would really appreciate it if someone could help me with this.

    // Decode video and save frames

    char filename[] = "test%0.3d.ppm";
    static void ppm_save(unsigned char *buf, int wrap, int xsize, int ysize,
                        int framenum )
    {

       char filenamestr[sizeof(filename)];
       FILE *f;
       int i;

       sprintf_s(filenamestr, sizeof(filenamestr), filename, framenum);
       fopen_s(&amp;f,filenamestr,"w");
       fprintf(f,"P6\n%d %d\n%d\n",xsize,ysize,255);
       for(i=0;i/ Register all formats and codecs
       av_register_all();

       // Open video file
       if (avformat_open_input(&amp;pFormatCtx, argv[1], NULL, NULL) != 0)
           return -1; // Couldn't open file

       // Retrieve stream information
       if (avformat_find_stream_info(pFormatCtx, NULL) &lt; 0)
           return -1; // Couldn't find stream information

       // Dump information about file onto standard error (Not necessary)
       av_dump_format(pFormatCtx, 0, argv[1], 0);

       // Find the first video stream
       videoStream = -1;
       for (i = 0; i &lt; pFormatCtx->nb_streams; i++)
           if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
               videoStream = i;
               break;
           }
       if (videoStream == -1)
           return -1; // Didn't find a video stream

       /* find the video decoder */
       codec = avcodec_find_decoder(pFormatCtx->streams[videoStream]->codec->codec_id);
       if (!codec) {
           fprintf(stderr, "codec not found\n");
           exit(1);
       }

       codecCtx= avcodec_alloc_context3(codec);
       if(avcodec_copy_context(codecCtx, pFormatCtx->streams[i]->codec) != 0) {
           fprintf(stderr, "Couldn't copy codec context");
           return -1; // Error copying codec context
       }  

       /* open it */
       if (avcodec_open2(codecCtx, codec, NULL) &lt; 0) {
           fprintf(stderr, "could not open codec\n");
           exit(1);
       }

       // Allocate video frame
       inframe= av_frame_alloc();
       if(inframe==NULL)
           return -1;

       // Allocate output frame
       outframe=av_frame_alloc();
       if(outframe==NULL)
           return -1;

       // Determine required buffer size and allocate buffer
       int numBytes=av_image_get_buffer_size(AV_PIX_FMT_RGB24, codecCtx->width,
                       codecCtx->height,1);
       uint8_t* buffer=(uint8_t *)av_malloc(numBytes*sizeof(uint8_t));

       // Assign appropriate parts of buffer to image planes in outframe
       // Note that outframe is an AVFrame, but AVFrame is a superset
       // of AVPicture


       avpicture_fill((AVPicture *)outframe, buffer, AV_PIX_FMT_RGB24,
            codecCtx->width, codecCtx->height );
       //av_image_copy_to_buffer(buffer, numBytes,
    //                           outframe->data, outframe->linesize,
    //                           AV_PIX_FMT_RGB24, codecCtx->width, codecCtx->height,1);

       // initialize SWS context for software scaling
       sws_ctx = sws_getContext(codecCtx->width,
                  codecCtx->height,
                  codecCtx->pix_fmt,
                  codecCtx->width,
                  codecCtx->height,
                  AV_PIX_FMT_RGB24,
                  SWS_BILINEAR,
                  NULL,
                  NULL,
                  NULL
                  );  


       // av_init_packet(&amp;avpkt);


       i = 0;
       while(av_read_frame(pFormatCtx, &amp;avpkt)>=0) {
           // Is this a packet from the video stream?
           if(avpkt.stream_index==videoStream) {
             // Decode video frame
             avcodec_decode_video2(codecCtx, inframe, &amp;frameFinished, &amp;avpkt);

             // Did we get a video frame?
             if(frameFinished) {
           // Convert the image from its native format to RGB
           sws_scale(sws_ctx, (uint8_t const * const *)inframe->data,
                 inframe->linesize, 0, codecCtx->height,
                 outframe->data, outframe->linesize);

           // Save the frame to disk
           if(++i%15 == 0)
               ppm_save(outframe->data[0], outframe->linesize[0],
                           codecCtx->width, codecCtx->height, i);

             }
           }

       // Free the packet that was allocated by av_read_frame
       av_packet_unref(&amp;avpkt);
       }


       // Free the RGB image
       av_free(buffer);
       av_frame_free(&amp;outframe);

       // Free the original frame
       av_frame_free(&amp;inframe);

       // Close the codecs
       avcodec_close(codecCtx);
       av_free(codecCtx);

       // Close the video file
       avformat_close_input(&amp;pFormatCtx);


       printf("\n");


       return 0;
    }