
Recherche avancée
Médias (1)
-
Publier une image simplement
13 avril 2011, par ,
Mis à jour : Février 2012
Langue : français
Type : Video
Autres articles (73)
-
Des sites réalisés avec MediaSPIP
2 mai 2011, parCette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page. -
Le profil des utilisateurs
12 avril 2011, parChaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...) -
Configurer la prise en compte des langues
15 novembre 2010, parAccéder à la configuration et ajouter des langues prises en compte
Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)
Sur d’autres sites (8680)
-
How can I get start time of rtsp-sesson via ffmpeg (C++) ? start_time_realtime always equal -9223372036854775808
5 août 2019, par chuchuchuI’m trying to get a frame by rtsp and calculate its real-world timestamp. I previously used Live555 for this (presentationTime).
As far as I understand, ffmpeg does not provide such functionality, but provides the ability to read the relative time of each frame and the start time of the stream. In my case, the frame timestamps (pts) works correctly, but the stream start time (start_time_realtime) is always -9223372036854775808.
I’m trying to use simple example from this Q : https://stackoverflow.com/a/11054652/5355846
Value does not change. regardless of the position in the code
int main(int argc, char** argv) {
// Open the initial context variables that are needed
SwsContext *img_convert_ctx;
AVFormatContext* format_ctx = avformat_alloc_context();
AVCodecContext* codec_ctx = NULL;
int video_stream_index;
// Register everything
av_register_all();
avformat_network_init();
//open RTSP
if (avformat_open_input(&format_ctx, "path_to_rtsp_stream",
NULL, NULL) != 0) {
return EXIT_FAILURE;
}
...
}while (av_read_frame(format_ctx, &packet) >= 0 && cnt < 1000) { //read ~ 1000 frames
//// here!
std::cout<< " ***** "
<< std::to_string(format_ctx->start_time_realtime)
<< " | "<start_time
<< " | "<best_effort_timestamp;
...
}***** -9223372036854775808 | 0 | 4120 | 40801 Frame : 103
What am I doing wrong ?
-
avcodec/ac3_parser : add avpriv_ac3_parse_header2() and use it in libavcodec
1er mars 2014, par Michael Niedermayeravcodec/ac3_parser : add avpriv_ac3_parse_header2() and use it in libavcodec
The new function has the ability to allocate the structure, allowing it to grow
without needing major bumpsSigned-off-by : Michael Niedermayer <michaelni@gmx.at>
-
FFmpeg support for repeating last audiosample and videoframe when input stream stops or delivers corrupt data ?
14 novembre 2017, par Vemund KvamOur goal is to deliver on-the-fly packaged Live HLS and Mpeg DASH from a mpeg-ts multicast source.
We use ffmpeg to transcode/mux the mpeg-ts input to ISMV (smooth streaming format) and transfer via http to Unified Origin running Apache.
What we want to achieve is a constant ISMV stream to Unified Origin regardless of input stability.
We have tried separating decoding and encoding by having two FFMPEG processes :
- Decodes "rawvideo" and "s16be" (audio) and sends to two python developed buffers that have the ability to repeat the last frame/sample if no input is provided.
- Uses the two buffer as input (over tcp) and encode/mux to ISMV.
This solution seems to solve the stability issue, but synchronising a/v and knowing when to provide repeated frames instead of live frames seems to be impossible. We have so far assumed that ffmpeg requires a continuous input stream to produce any output if the input is not or can not be provided, output stops.
Does FFmpeg have built in functionality for repeating a/v when the input stream either stops delivering data or delivers corrupt data ?
Is there any industry standard way to deal with unstable input ?