Recherche avancée

Médias (0)

Mot : - Tags -/content

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (101)

  • Qualité du média après traitement

    21 juin 2013, par

    Le bon réglage du logiciel qui traite les média est important pour un équilibre entre les partis ( bande passante de l’hébergeur, qualité du média pour le rédacteur et le visiteur, accessibilité pour le visiteur ). Comment régler la qualité de son média ?
    Plus la qualité du média est importante, plus la bande passante sera utilisée. Le visiteur avec une connexion internet à petit débit devra attendre plus longtemps. Inversement plus, la qualité du média est pauvre et donc le média devient dégradé voire (...)

  • Dépôt de média et thèmes par FTP

    31 mai 2013, par

    L’outil MédiaSPIP traite aussi les média transférés par la voie FTP. Si vous préférez déposer par cette voie, récupérez les identifiants d’accès vers votre site MédiaSPIP et utilisez votre client FTP favori.
    Vous trouverez dès le départ les dossiers suivants dans votre espace FTP : config/ : dossier de configuration du site IMG/ : dossier des média déjà traités et en ligne sur le site local/ : répertoire cache du site web themes/ : les thèmes ou les feuilles de style personnalisées tmp/ : dossier de travail (...)

  • Prérequis à l’installation

    31 janvier 2010, par

    Préambule
    Cet article n’a pas pour but de détailler les installations de ces logiciels mais plutôt de donner des informations sur leur configuration spécifique.
    Avant toute chose SPIPMotion tout comme MediaSPIP est fait pour tourner sur des distributions Linux de type Debian ou dérivées (Ubuntu...). Les documentations de ce site se réfèrent donc à ces distributions. Il est également possible de l’utiliser sur d’autres distributions Linux mais aucune garantie de bon fonctionnement n’est possible.
    Il (...)

Sur d’autres sites (7115)

  • FFmpeg to Azure Media Services Smooth Streaming Input

    22 juillet 2020, par Adityo Setyonugroho

    I would like to ask about ffmpeg config or command to to mp4 fragment to Azure Media Service live event using smooth streaming / isml protocol. The AMS is not getting any input yet from ffmpeg.
This is my current running command :

    


    ffmpeg -f dshow -i video="Webcam" -movflags isml+frag_keyframe -f isml -r 10 http://endpoint/ingest.isml/streaming1


    


    When I am using RTMP with Wirecast is running well.

    


    Any suggestion on ffmpeg command with isml protocol ?

    


    Thank you

    


  • Wav file duration of Windows media player is not same with ffmpeg

    5 août 2020, par jimmy525

    There is one wav file, if using windows media player open it, its duration is 06:15.
But if using ffmpeg convert it to mp3 or using ffprobe check duration, it shows 06:17.
Of course, other players(like vlc) shows 06:17 too.
What I need to do is, using ffmpeg convert it to mp3 with 06:15 duration.

    


    ffmpeg command :

    


    ffmpeg -i 1.wav -f mp3 out.mp3


    


    Please help me to resolve this problem, Thanks

    


  • Confusion about PTS in video files and media streams

    11 novembre 2014, par user2452253

    Is it possible that the PTS of a particular frame in a file is different with the PTS of the same frame in the same file while it is being streamed ?

    When I read a frame using av_read_frame I store the video stream in an AVStream. After I decode the frame with avcodec_decode_video2, I store the time stamp of that frame in an int64_t using av_frame_get_best_effort_timestamp. Now if the program is getting its input from a file I get a different timestamp from when I stream the input (from the same file) to the program.

    To change the input type I simply change the argv argument from "/path/to/file.mp4" to something like "udp ://localhost:1234", then I stream the file with ffmpeg in command line : "ffmpeg -re -i /path/to/file.mp4 -f mpegts udp ://localhost:1234". Can it be because the "-f mpegts" arguments change some characteristics of the media ?

    Below is my code (simplified). By reading the ffmpeg mailing list archives I realized that the time_base that I’m looking for is in the AVStream and not the AVCodecContext. Instead of using av_frame_get_best_effort_timestamp I have also tried using the packet.pts but the results don’t change.
    I need the time stamps to have a notion of frame number in a streaming video that is being received.
    I would really appreciate any sort of help.

    //..
    //argv[1]="/file.mp4";
    argv[1]="udp://localhost:7777";
    // define AVFormatContext, AVFrame, etc.
    // register av, avcodec, avformat_network_init(), etc.
    avformat_open_input(&pFormatCtx, argv, NULL, NULL);
    avformat_find_stream_info(pFormatCtx, NULL);
    // find the video stream...
    // pointer to the codec context...
    // open codec...
    pFrame=av_frame_alloc();
    while(av_read_frame(pFormatCtx, &packet)>=0) {
           AVStream *strem = pFormatCtx->streams[videoStream];
           if(packet.stream_index==videoStream) {
               avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet);
               if(frameFinished) {
                   int64_t perts = av_frame_get_best_effort_timestamp(pFrame);
                   if (isMyFrame(pFrame)){
                        cout << perts*av_q2d(strem->time_base) << "\n";
                   }
                }
    }
    //free allocated space
    }
    //..