
Recherche avancée
Autres articles (45)
-
Les autorisations surchargées par les plugins
27 avril 2010, parMediaspip core
autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs -
Personnaliser les catégories
21 juin 2013, parFormulaire de création d’une catégorie
Pour ceux qui connaissent bien SPIP, une catégorie peut être assimilée à une rubrique.
Dans le cas d’un document de type catégorie, les champs proposés par défaut sont : Texte
On peut modifier ce formulaire dans la partie :
Administration > Configuration des masques de formulaire.
Dans le cas d’un document de type média, les champs non affichés par défaut sont : Descriptif rapide
Par ailleurs, c’est dans cette partie configuration qu’on peut indiquer le (...) -
Support audio et vidéo HTML5
10 avril 2011MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)
Sur d’autres sites (9657)
-
Create video file by mixing video and audio byte arrays FFmpeg & C++
20 janvier 2021, par Sergey ZinovevI capture audio and video.


Video is captured by using Desktop Duplication API and, as a result, I get Textures 2D.
These Textures 2D are char arrays.


m_immediateContext->CopyResource(currTexture, m_acquiredDesktopImage.Get());

D3D11_MAPPED_SUBRESOURCE* resource = new D3D11_MAPPED_SUBRESOURCE;
UINT subresource = D3D11CalcSubresource(0, 0, 0);

m_immediateContext->Map(currTexture, subresource, D3D11_MAP_READ_WRITE, 0, resource);

uchar * buffer = new uchar[(m_desc.Height * m_desc.Width * 4)];
const uchar * mappedData = static_cast<uchar>(resource->pData);
memcpy(buffer, mappedData, m_desc.Height * m_desc.Width * 4);
</uchar>


Then the Textures 2D convert in cv::Mat and write Video using OpenCV.


Audio captured by using WASAPI and, as a result, I get samples.


BYTE * buffer = new BYTE[(numFramesAvailable * pwfx->nBlockAlign)];
memcpy(buffer, pData, numFramesAvailable * pwfx->nBlockAlign);



These samples are byte arrays then write in WAV file.


As a result, I get two files - video and audio, which merged by using FFmpeg.


I want to skip the creation of video and audio files and promptly create one file compose of two strims (video and audio) from raw data.


In order to make it I need help with FFmpeg code.
Specifically, in a way of creating and setting the correct output context and output streams, and how to encode raw data.


I've already learned doc/examples FFmpeg, but still can't make the working code. So, I really need your help guys.


-
video previews on video just like xvideos
28 juin 2020, par zjoseVideo previews are usually images that rotate every so often in a small video. But since that format is old and boring, I would like to be able to create them with ffmpeg just like xvideos does.


example (you don't have to worry) -> https://img-l3.xvideos-cdn.com/videos/videopreview/dc/8b/0f/dc8b0facd2879bad18f93dff44d1de2c_169.mp4


They are in size : 362x204.
They last : 5 seconds.


and they are several fragments in video, and not in images.


How could I do it using ffmpeg ?


-
Use ffmpeg to add video watermark. But the second video added does not move, only static images can be seen
19 février 2021, par cantoeUse ffmpeg to add video watermark.
But the second video added does not move, only static images can be seen.
Does anyone know what's going on ?
Can you help me ?


ffmpeg -i sucai/s3o.ts -i sucai/s2o.ts -i sucai/s4o.ts -filter_complex "overlay=x=main_w/2-overlay_w/2:y=main_h/2-overlay_h/2:enable='between(t,1,3)',overlay=x=main_w/2-overlay_w/2:y=main_h/2-overlay_h/2:enable='between(t,8,10)'" -vcodec libx265 sucai/s34.mp4 -y