
Recherche avancée
Médias (2)
-
Exemple de boutons d’action pour une collection collaborative
27 février 2013, par
Mis à jour : Mars 2013
Langue : français
Type : Image
-
Exemple de boutons d’action pour une collection personnelle
27 février 2013, par
Mis à jour : Février 2013
Langue : English
Type : Image
Autres articles (51)
-
Qualité du média après traitement
21 juin 2013, parLe bon réglage du logiciel qui traite les média est important pour un équilibre entre les partis ( bande passante de l’hébergeur, qualité du média pour le rédacteur et le visiteur, accessibilité pour le visiteur ). Comment régler la qualité de son média ?
Plus la qualité du média est importante, plus la bande passante sera utilisée. Le visiteur avec une connexion internet à petit débit devra attendre plus longtemps. Inversement plus, la qualité du média est pauvre et donc le média devient dégradé voire (...) -
La file d’attente de SPIPmotion
28 novembre 2010, parUne file d’attente stockée dans la base de donnée
Lors de son installation, SPIPmotion crée une nouvelle table dans la base de donnée intitulée spip_spipmotion_attentes.
Cette nouvelle table est constituée des champs suivants : id_spipmotion_attente, l’identifiant numérique unique de la tâche à traiter ; id_document, l’identifiant numérique du document original à encoder ; id_objet l’identifiant unique de l’objet auquel le document encodé devra être attaché automatiquement ; objet, le type d’objet auquel (...) -
Des sites réalisés avec MediaSPIP
2 mai 2011, parCette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.
Sur d’autres sites (5586)
-
"Format" or style the output of showwaves/showwavespic in ffmpeg
9 avril 2020, par flomeiI'm trying to get my head wrapped around ffmpeg and its functions and filters.



showwaves
andshowwavespic
already create nice output, but I'm looking to style it even more. Lots of audioplayers for example create a "waveform" like the following, which would be a job forshowwavespic
, I think. (I think soundcloud for example does create a form like this with actual data.)



I wonder if I can use ffmpeg to create something like this directly from my raw input data. I thought I might need to split my audio track into X parts, calculate the average distance from the Y-axis and then create a bar. But I'm not sure if I can manage to do that with ffmpeg or if I need to build more of a toolchain for that.



If I could create the output of
showwaves
to look like that above, that would be great. On the other hand I'd already be happy if I could just increase the stroke width of theshowwaves
output.


Didn't found anything about the in the documentation or I looked at the wrong places, because I don't yet get the big picture of ffmpeg.


-
how to use the pts in fffmpeg
1er décembre 2016, par AllanI have a library with can provide video data and PTS. The library head file Like this:
/**
* \brief Write mirror video H.264 frame to player.
* \param p_src Pointer to source buffer.
* \param size H.264 frame size. (unit: byte)
* \param ptsValue PTS value.
* \return Copied size. (unit: byte)
*/
int (*WriteMirrorVideoData)(const std::string& ip, const void *p_src, int size, double ptsValue);As you see, the library give me video frame buffer address and PTS.
I use FFMpeg to decode video data correctly.
My question is how to control the display time by ptsValue which provided by library.
Did I need to set the ptsValue to AVFrame ? then FFMPeg can control the display time itself.
Or I need to control the display by my own code ?I am a newer to FFMpeg. please help me. Thank you very much !
-
Is there a faster video rendering solution than using AndroidBitmap_xxx functions ?
25 juillet 2012, par AlexIn my native thread I have FFMpeg getting and decoding frames then putting them in a queue.
On Java side I have a
GLSurfaceView
and fromRenderer.onDrawFrame
I'm calling into the native code passing a bitmap (that bitmap I create only once, then pass it every time).In the native code I get the head of the queue, copy data to the java bitmap using
AndroidBitmap_xxx
functions, then render that Bitmap on Java side as a texture.I wonder is there a faster way to render video ? Shall I do it entirely in the native code, if yes, why it will be faster ?
Edit : I now don't copy RGB frame pixels to the locked bitmap pixels, rather I decode YUV frame directly into the locked bitmap pixels. This makes rendering significantly faster (because no unneeded memcpy anymore) still the question remains.