
Recherche avancée
Médias (3)
-
The Slip - Artworks
26 septembre 2011, par
Mis à jour : Septembre 2011
Langue : English
Type : Texte
-
Podcasting Legal guide
16 mai 2011, par
Mis à jour : Mai 2011
Langue : English
Type : Texte
-
Creativecommons informational flyer
16 mai 2011, par
Mis à jour : Juillet 2013
Langue : English
Type : Texte
Autres articles (86)
-
Le profil des utilisateurs
12 avril 2011, parChaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...) -
Configurer la prise en compte des langues
15 novembre 2010, parAccéder à la configuration et ajouter des langues prises en compte
Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...) -
XMP PHP
13 mai 2011, parDixit Wikipedia, XMP signifie :
Extensible Metadata Platform ou XMP est un format de métadonnées basé sur XML utilisé dans les applications PDF, de photographie et de graphisme. Il a été lancé par Adobe Systems en avril 2001 en étant intégré à la version 5.0 d’Adobe Acrobat.
Étant basé sur XML, il gère un ensemble de tags dynamiques pour l’utilisation dans le cadre du Web sémantique.
XMP permet d’enregistrer sous forme d’un document XML des informations relatives à un fichier : titre, auteur, historique (...)
Sur d’autres sites (8389)
-
Real time stereo video stream. How to start
29 juin 2015, par victor jungHere is my problem :
I have at one side two webcams plugged in a linux computer, and on the other side, an android smartphone. My goal is to program a real time stream of the 2 webcams, and display that stream on the smartphone (to be used in a google cardboard mask). I read quite a lot on the subject, and I found several way to achieve this.
First there is ffmpeg, which could encode and stream.
But I need to modify the pictures at some point, to re-size them / or to ad some kind of distortion. So I thought it would be great if I can get the 2 images, with openCv maybe, playwith them, build a new one, and stream them, but how could ffmpeg deal with the newly created image ?
The other option would be to get the 2 pics and play with them with openCv too, but then, hardcode a stream over, UDP in RTP style, but wouldnt be hard to display the stream nicely on the phone ?, and how to cut the image to fit in small packets ?
Thanks for your help, I am still digging in the subject, so if you have any other way to do it I am taking !
ps : My introducing Hello, won’t stay at the beginning of my message...
Have a nice day every body.
d-4 before frieday. -
How to do real-time video streaming frame by frame in python ?
4 septembre 2018, par LeoWhat I need is to readin one frame of a video, then send this frame as a frame in video, like P-frame, to the server, and server decode it based on the information of the frames it received before this frame.(So only the first frame is sent as complete I-frame, the rest are just P-frame to save bandwidth)
Then I need to do some real time operation on this frame.
But I try ffmpeg’s and opencv’s built in streaming protocal, it can only save a complete video file. But I need to do some real time manipulate as soon as I receive one fram, so I cant wait till I have received the whole file.
So what package should I use ? Or there is not existing lib/software that could do this ?
-
How to decode video in ffmpeg in real time ?
18 juillet 2021, par Guerlando OCsBasic ffmpeg decoding consists of
avcodec_send_packet
to send encoded packets andavcodec_receive_frame
to receive the decoded frames.

avcodec_send_packet
returnsEAGAIN
in case it's full. That is, in case no one is callingavcodec_receive_frame
.

Suppose I'm reading an mp4 file and rendering on the screen. That is, I want real time playback of the video. One way to do that would be to tell the renderer the exact fps the file has, for example :


If the file should play at 30 fps, then the renderer calls
avcodec_receive_frame
30 times per second, and theavcodec_send_packet
only sends new packets when it can. If it receivesEAGAIN
, it waits and sends again in 1 millisecond, instead of discarding the packet.

Is this the right way to do ? Because getting the fps of the file is not trivial. At least I've never seen this in ffmpeg. Maybe a .mp4 file has this information, but what about a raw .h264 file ? VLC player can play raw .h264 in the right time, but I don't know how it does that