
Recherche avancée
Autres articles (37)
-
La file d’attente de SPIPmotion
28 novembre 2010, parUne file d’attente stockée dans la base de donnée
Lors de son installation, SPIPmotion crée une nouvelle table dans la base de donnée intitulée spip_spipmotion_attentes.
Cette nouvelle table est constituée des champs suivants : id_spipmotion_attente, l’identifiant numérique unique de la tâche à traiter ; id_document, l’identifiant numérique du document original à encoder ; id_objet l’identifiant unique de l’objet auquel le document encodé devra être attaché automatiquement ; objet, le type d’objet auquel (...) -
Personnaliser en ajoutant son logo, sa bannière ou son image de fond
5 septembre 2013, parCertains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;
-
Ecrire une actualité
21 juin 2013, parPrésentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
Vous pouvez personnaliser le formulaire de création d’une actualité.
Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...)
Sur d’autres sites (7027)
-
Stream frame from video to pipeline and publish it to HTTP mjpeg via ffmpeg
18 juillet 2018, par Rafał SardawLet’s say I have very simple program which has been written in C++ with usage of OpenCV 3.4 under Windows 10.
VideoCapture cap("test.avi");
Mat frame;
while(true){
if (!cap.read(frame))
{
break;
}
// SEND FRAME TO PIPE
}It’s just simple example of reading frame by frame avi video, but in the end it’s going to be server-side application which produces modified stream from few ip cameras. I want to use html5 video tag to display output directly on website, but it’s quite hard to find useful information related with that topic ( for Windows ). If I understand it correctly I need to define pipeline and send there MJPEG stream, with help of FFMPEG, where FFMPEG will create local HTTP server on specific port. Anyone ever challenged similar task under Windows ? I guess that 80% of task is related with proper usage of ffmpeg command line tool, one of my priorities is minimal modification of application.
So to make long story short, I have application which I can call directly from command line :
stream_producer.exe CAMERA_1
and I want to be able to see MJPEG stream under :
http://localhost:1234
which can be displayed on local website in intranet.
Regards.
-
avfilter/vf_geq : use per-thread AVExpr for expression evaluation
28 décembre 2019, par Marton Balint -
Hardware Accelerated H264 Decode using DirectX11 in Unity Plugin for UWP
8 janvier 2019, par rohit nI’ve built an Unity plugin for my UWP app which converts raw h264 packets to RGB data and renders it to a texture. I’ve used FFMPEG to do this and it works fine.
int framefinished = avcodec_send_packet(m_pCodecCtx, &packet);
framefinished = avcodec_receive_frame(m_pCodecCtx, m_pFrame);
// YUV to RGB conversion and render to texture after thisNow, I’m trying to shift to hardware based decoding using DirectX11 DXVA2.0.
Using this : https://docs.microsoft.com/en-us/windows/desktop/medfound/supporting-direct3d-11-video-decoding-in-media-foundation
I was able to create a decoder(ID3D11VideoDecoder) but I don’t know how to supply it the raw H264 packets and get the YUV or NV12 data as output.
(Or if its possible to render the output directly to the texture since I can get the ID3D11Texture2D pointer)so my question is, How do you send the raw h264 packets to this decoder and get the output from it ?
Also, this is for real time operation so I’m trying to achieve minimal latency.
Thanks in advance !