Recherche avancée
Médias (2)
-
Rennes Emotion Map 2010-11
19 octobre 2011, par
Mis à jour : Juillet 2013
Langue : français
Type : Texte
-
Carte de Schillerkiez
13 mai 2011, par
Mis à jour : Septembre 2011
Langue : English
Type : Texte
Autres articles (68)
-
Les tâches Cron régulières de la ferme
1er décembre 2010, parLa gestion de la ferme passe par l’exécution à intervalle régulier de plusieurs tâches répétitives dites Cron.
Le super Cron (gestion_mutu_super_cron)
Cette tâche, planifiée chaque minute, a pour simple effet d’appeler le Cron de l’ensemble des instances de la mutualisation régulièrement. Couplée avec un Cron système sur le site central de la mutualisation, cela permet de simplement générer des visites régulières sur les différents sites et éviter que les tâches des sites peu visités soient trop (...) -
Mediabox : ouvrir les images dans l’espace maximal pour l’utilisateur
8 février 2011, parLa visualisation des images est restreinte par la largeur accordée par le design du site (dépendant du thème utilisé). Elles sont donc visibles sous un format réduit. Afin de profiter de l’ensemble de la place disponible sur l’écran de l’utilisateur, il est possible d’ajouter une fonctionnalité d’affichage de l’image dans une boite multimedia apparaissant au dessus du reste du contenu.
Pour ce faire il est nécessaire d’installer le plugin "Mediabox".
Configuration de la boite multimédia
Dès (...) -
Des sites réalisés avec MediaSPIP
2 mai 2011, parCette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.
Sur d’autres sites (9046)
-
Can I pipe pygame output to a utility like ffmpeg if I am on Windows ?
20 septembre 2015, par user89Usually,
pygameshows its output in a specially created window. Instead of creating this window, then saving images in sequence from it, before finally feeding these images to a tool likeffmpeg, I’d like to pipepygame’s output directlyffmpeg.Does what I want make sense ?
If yes, how can I redirect
pygame’s output to console ? From the documentation, I am aware of methods likepygame.Surface.get_vieworpygame.Surface.get_buffer, but I don’t know what the difference is between them, and whether they are quite what I need.In this tutorial, a raw
numpy-array based RGB representation of images is fed toffmpeg. I figure I could do a similar thing, except instead I’d feed in some sort of RGB representation obtained frompygame.I know that on Linux, it’s possible to output
pygamestuff to a framebuffer for display in the console ? Not sure if it is related. In any case, the effect is achieved by changing pygame drivers.So, I have some dots, but need to connect them.
-
avformat_open_input failed to open unnamed pipe
8 octobre 2015, par user2406774hi i am writing an application that reads data from network and feeds it to unnamed pipe and i want to read it from other end of pipe using avformat_open_input but this call blocking infinetly any idea about how to read stream from unnamed pipe
here is the flow of code
int fd[2]
pipe(fd);
if(fork()==0){
//child process
close(fd[1]);
avcodec_register_all();
av_register_all();
avformat_network_init();
AVInputFormat *input_format = av_find_input_format("mp4");
if (!input_format)
{
fprintf(stderr, "Could not find MP4 demuxer.\n");
exit(1);
}
AVFormatContext *input_context = NULL;
fprintf(stderr,"Before opening input context\n");
int ret = avformat_open_input(&input_context, fd[0],input_format, NULL);
// int ret = avformat_open_input(&input_context, "pipe:fd[0]",input_format, NULL);
fprintf(stderr,"After opening input context\n");
}
else{
//parent process
close(fd[0]);
read data from Network();
//write it to pipe
ret=write(fd[1], udp_packet, len);
}after opening input stream i am trying to transcode the mp4 to mpeg ts file .if i give mp4 file as filename filed in avformat_open_input API it is working fine
any suggestions ?
-
Pipe opencv images to ffmpeg using python
9 décembre 2015, par jlarschHow can I pipe openCV images to ffmpeg (running ffmpeg as a subprocess) ?
(I am using spyder/anaconda)I am reading frames from a video file and do some processing on each frame.
import cv2
cap = cv2.VideoCapture(self.avi_path)
img = cap.read()
gray = cv2.cvtColor(img[1], cv2.COLOR_BGR2GRAY)
bgDiv=gray/vidMed #background divisionthen, to pipe the processed frame to ffmpeg, I found this command in a related question :
sys.stdout.write( bgDiv.tostring() )next, I am trying to run ffmpeg as a subprocess :
cmd='ffmpeg.exe -f rawvideo -pix_fmt gray -s 2048x2048 -r 30 -i - -an -f avi -r 30 foo.avi'
sp.call(cmd,shell=True)(this also from the mentioned post)
However, this fills my IPython console with cryptic hieroglyphs and then crashes it. any advice ?ultimately, I would like to pipe out 4 streams and have ffmpeg encode those 4 streams in parallel.