
Recherche avancée
Médias (2)
-
Core Media Video
4 avril 2013, par
Mis à jour : Juin 2013
Langue : français
Type : Video
-
Video d’abeille en portrait
14 mai 2011, par
Mis à jour : Février 2012
Langue : français
Type : Video
Autres articles (104)
-
Participer à sa traduction
10 avril 2011Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
Actuellement MediaSPIP n’est disponible qu’en français et (...) -
Personnaliser les catégories
21 juin 2013, parFormulaire de création d’une catégorie
Pour ceux qui connaissent bien SPIP, une catégorie peut être assimilée à une rubrique.
Dans le cas d’un document de type catégorie, les champs proposés par défaut sont : Texte
On peut modifier ce formulaire dans la partie :
Administration > Configuration des masques de formulaire.
Dans le cas d’un document de type média, les champs non affichés par défaut sont : Descriptif rapide
Par ailleurs, c’est dans cette partie configuration qu’on peut indiquer le (...) -
Les formats acceptés
28 janvier 2010, parLes commandes suivantes permettent d’avoir des informations sur les formats et codecs gérés par l’installation local de ffmpeg :
ffmpeg -codecs ffmpeg -formats
Les format videos acceptés en entrée
Cette liste est non exhaustive, elle met en exergue les principaux formats utilisés : h264 : H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10 m4v : raw MPEG-4 video format flv : Flash Video (FLV) / Sorenson Spark / Sorenson H.263 Theora wmv :
Les formats vidéos de sortie possibles
Dans un premier temps on (...)
Sur d’autres sites (11462)
-
ac3dec : Allow asymmetric application of DRC when drc_scale > 1
13 janvier 2014, par John Stebbins -
Render SharpDX Texture2D in UWP application
10 décembre 2019, par AlexI’m implementing a solution for hardware-accelerated H264 decoding and rendering in the UWP application. I want to avoid copying from GPU to CPU.
The solutions consists of 2 parts :- C library that decodes the H264 stream using ffmpeg
- UWP/C#/SharpDX application to receive encoded data, pinvoke library and then render decoded frames.
I receive encoded data in the C# application and send it to the C library to decode and get the pointer to the frame back using pinvoke.
C part looks good so far. I managed to receive pointer to the decoded frame in GPU in the C library :
// ffmpeg decoding logic
ID3D11Texture2D* texturePointer = (ID3D11Texture2D*)context->frame->data[0];I managed to receive this pointer in C# code and create SharpDX texture from it.
var texturePointer = decoder.Decode(...data...); // pinvoke
if (texturePointer != IntPtr.Zero)
{
var texture = new Texture2D(texturePointer); // works just perfect
}Now I need to render it on the screen. My understanding is that I can create class that extends
SurfaceImageSource
so I can assign it as aSource
of XAMLImage
object.
It can be something like this :public class RemoteMediaImageSource : SurfaceImageSource
{
public void BeginDraw(IntPtr texturePointer)
{
var texture = new Texture2D(texturePointer);
// What to do to render texture in GPU to the screen?
}
}Is my assumption correct ?
If yes, how do I exactly do the rendering part (code example would be highly appreciated) ? -
Revision c208cd67f4 : Merge "Removing unused YV12_BUFFER_CONFIG arguments from motion search functions
9 mai 2013, par Dmitry KovalevChanged Paths :
Modify /vp9/encoder/vp9_mbgraph.c
Merge "Removing unused YV12_BUFFER_CONFIG arguments from motion search
functions." into experimental