
Recherche avancée
Autres articles (70)
-
Les tâches Cron régulières de la ferme
1er décembre 2010, parLa gestion de la ferme passe par l’exécution à intervalle régulier de plusieurs tâches répétitives dites Cron.
Le super Cron (gestion_mutu_super_cron)
Cette tâche, planifiée chaque minute, a pour simple effet d’appeler le Cron de l’ensemble des instances de la mutualisation régulièrement. Couplée avec un Cron système sur le site central de la mutualisation, cela permet de simplement générer des visites régulières sur les différents sites et éviter que les tâches des sites peu visités soient trop (...) -
Des sites réalisés avec MediaSPIP
2 mai 2011, parCette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page. -
ANNEXE : Les plugins utilisés spécifiquement pour la ferme
5 mars 2010, parLe site central/maître de la ferme a besoin d’utiliser plusieurs plugins supplémentaires vis à vis des canaux pour son bon fonctionnement. le plugin Gestion de la mutualisation ; le plugin inscription3 pour gérer les inscriptions et les demandes de création d’instance de mutualisation dès l’inscription des utilisateurs ; le plugin verifier qui fournit une API de vérification des champs (utilisé par inscription3) ; le plugin champs extras v2 nécessité par inscription3 (...)
Sur d’autres sites (11005)
-
ffmpeg failed with code 1 firebase cloud functions
17 octobre 2020, par DavidI'm trying to add a logo overlay to a video in firebase-cloud-functions using ffmpeg. I have sucessfully run this command on my local machine. I can't seem to access more indepth logging that just
failed with code 1
, and unsure what might be causing this issue ( the source files referenced exist in their location ).

await spawn('ffmpeg', ['-i', filePath, '-i', logofilepath, '-filter_complex', '"overlay=20:20"', targetFilePath]);

console.log('Video with logo @', targetFilePath)



Error :




ChildProcessError :
ffmpeg -i /tmp/input.mp4 -i /tmp/logo.png -filter_complex "overlay=20:20" /tmp/output.mp4
failed with code 1



-
Problems in my sample C code using FFmpeg API
11 juillet 2019, par Tina JI’ve been trying to change an FFmpeg’s example code HERE to call other filters using its C APIs. Say the filter be
freezedetect=n=-60dB:d=8
which normally runs like this :ffmpeg -i small.mp4 -vf "freezedetect=n=-60dB:d=8" -map 0:v:0 -f null -
And prints outputs like this :
[freezedetect @ 0x25b91c0] lavfi.freezedetect.freeze_start: 5.005
[freezedetect @ 0x25b91c0] lavfi.freezedetect.freeze_duration: 2.03537
[freezedetect @ 0x25b91c0] lavfi.freezedetect.freeze_end: 7.04037However, the original example displays frames, not these metadata information. How can I change the code to print this metadata information (and not the frames) ?
I’ve been trying to change the
display_frame
function below into adisplay_metadata
function. Looks like theframe
variable has ametadata
dictionary which looks promising, but my attempts failed to use it. I’m also new to C language.Original
display_frame
function :static void display_frame(const AVFrame *frame, AVRational time_base)
{
int x, y;
uint8_t *p0, *p;
int64_t delay;
if (frame->pts != AV_NOPTS_VALUE) {
if (last_pts != AV_NOPTS_VALUE) {
/* sleep roughly the right amount of time;
* usleep is in microseconds, just like AV_TIME_BASE. */
delay = av_rescale_q(frame->pts - last_pts,
time_base, AV_TIME_BASE_Q);
if (delay > 0 && delay < 1000000)
usleep(delay);
}
last_pts = frame->pts;
}
/* Trivial ASCII grayscale display. */
p0 = frame->data[0];
puts("\033c");
for (y = 0; y < frame->height; y++) {
p = p0;
for (x = 0; x < frame->width; x++)
putchar(" .-+#"[*(p++) / 52]);
putchar('\n');
p0 += frame->linesize[0];
}
fflush(stdout);
}My new
display_metadata
function that needs to be completed :static void display_metadata(const AVFrame *frame)
{
// printf("%d\n",frame->height);
AVDictionary* dic = frame->metadata;
printf("%d\n",*(dic->count));
// fflush(stdout);
} -
FFmoeg : What does the source code do when input file is picture ?
22 août 2022, par EynnzerrAs is known, in command lines, FFmpeg can receive pictures as input and output an encoded video, for example,


ffmpeg -i ./pictures/%3d.png output.mp4



Here I'm curious about what happened in source code, i.e. how FFmpeg reads the pictures and in what format it stores them. I think to get output video, input pictures should first be converted to
AVFrame
, but I have no idea how to do that. I tried to read the source code of ffmpeg, but it's too hard for me to figure out now.

I'd appreciate any helpful advice to solve my question !