
Recherche avancée
Médias (91)
-
Géodiversité
9 septembre 2011, par ,
Mis à jour : Août 2018
Langue : français
Type : Texte
-
USGS Real-time Earthquakes
8 septembre 2011, par
Mis à jour : Septembre 2011
Langue : français
Type : Texte
-
SWFUpload Process
6 septembre 2011, par
Mis à jour : Septembre 2011
Langue : français
Type : Texte
-
La conservation du net art au musée. Les stratégies à l’œuvre
26 mai 2011
Mis à jour : Juillet 2013
Langue : français
Type : Texte
-
Podcasting Legal guide
16 mai 2011, par
Mis à jour : Mai 2011
Langue : English
Type : Texte
-
Creativecommons informational flyer
16 mai 2011, par
Mis à jour : Juillet 2013
Langue : English
Type : Texte
Autres articles (112)
-
Personnaliser en ajoutant son logo, sa bannière ou son image de fond
5 septembre 2013, parCertains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;
-
Ecrire une actualité
21 juin 2013, parPrésentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
Vous pouvez personnaliser le formulaire de création d’une actualité.
Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...) -
Publier sur MédiaSpip
13 juin 2013Puis-je poster des contenus à partir d’une tablette Ipad ?
Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir
Sur d’autres sites (6955)
-
how can I set GOP size to be a multiple of the input framerate ?
3 septembre 2020, par agcontiQuestion :


How can I set GOP size to be a multiple of the input framerate ?


Context :


My ideal GOP size formula is
source_fps * 2
. My source's framerate can be either 30 or 60 fps so I'm unable to set a static value that works for both. Is there a variable that ffmpeg exposes that I can use ? I know you can get metadata about the source input when using the-vf
option with variables likeiw
orih
. Is there a similar method for FPS ?

Example command where GOP size and keyint_min is hardcoded :


ffmpeg -i <input /> -keyint_min 120 -g 120 -f dash /path/to/out.mpd



Desired command where e GOP size and keyint_min are based on the source framerate :


ffmpeg -i <input /> -keyint_min source_framerate * 2 -g source_framerate * 2 -f dash /path/to/out.mpd



-
How to convert a video and audio file to be smoothly played via Media Source Extension API ?
4 octobre 2018, par AmanI have built a web video player using the Media Source Extension API. I have been testing my video player using local video and audio files on my PC. Everything works perfectly expect the video keeps buffering. I’m playing a 4k 60fps video, which I downloaded from YouTube. My PC is not 4k resolution, but the video smoothly plays through YouTube and VLC Media Player. I’m just surprised to why my Media Source Extension Video Player buffers even through the video and audio file are not being retrieved via network. I’m assuming that the video and audio files I’m using are causing this problem. So I will explain how I created my video and audio files first :
-
I downloaded the video from https://www.youtube.com/watch?v=KaCQ8SQ6ZHQ&t=3s using the 4K Video Downloader https://www.4kdownload.com/products/product-videodownloader.
-
Convert the
mkv
(the 4K Video Downloader only allows the 4k 60fps video to be downloaded inmkv
format, for me) file tomp4
usingffmpeg
inCMD
:ffmpeg -i test.mkv -codec copy test.mp4
. -
Converting the
test.mp4
file to my preferred 4K resolution3840x2160
from3840x1632
usingffmpeg
inCMD
:ffmpeg -i test.mp4 -s 3840x2160 -c:a copy test_changed.mp4
. (NOT SO IMPORTANT) -
Separating the video and audio of
test_changed.mp4
tovideo.mp4
for video andaudio.mp4
for audio usingMP4Box
inCMD
: Video -MP4Box -single 1 test_changed.mp4 -out video.mp4
and Audio -MP4Box -single 2 test_changed.mp4 -out audio.mp4
. -
Splitting both
video.mp4
andaudio.mp4
into 30 split parts each containing 5 seconds of the video and audio file. So I end up having (video_1.mp4
,audio_1.mp4
), (video_2.mp4
,audio_2.mp4
), (video_3.mp4
,audio_3.mp4
), ..... (video_29.mp4
,audio_29.mp4
), (video_30.mp4
,audio_30.mp4
). Usingffmpeg
and one by one specifying the time range for each part inCMD
:[For Part 1 :
ffmpeg -ss 00:00:00 -to 00:00:05 -i video.mp4 video_1.mp4
,ffmpeg -ss 00:00:00 -to 00:00:05 -i audio.mp4 audio_1.mp4
],[For Part 2 :
ffmpeg -ss 00:00:05 -to 00:00:10 -i video.mp4 video_2.mp4
,ffmpeg -ss 00:00:05 -to 00:00:10 -i audio.mp4 audio_2.mp4
],[For Part 3 :
ffmpeg -ss 00:00:10 -to 00:00:15 -i video.mp4 video_3.mp4
,ffmpeg -ss 00:00:10 -to 00:00:15 -i audio.mp4 audio_3.mp4
],.....
[For Part 29 :
ffmpeg -ss 00:02:20 -to 00:02:25 -i video.mp4 video_29.mp4
,ffmpeg -ss 00:02:20 -to 00:02:25 -i audio.mp4 audio_29.mp4
],[For Part 30 :
ffmpeg -ss 00:02:25 -to 00:02:30 -i video.mp4 video_30.mp4
,ffmpeg -ss 00:02:25 -to 00:02:30 -i audio.mp4 audio_30.mp4
]. -
Fragmenting each of the video and audio parts using
MP4Box
inCMD
(As far as I know, fragmentedmp4
files are only files played via Media Source Extension API) :[For Part 1 :
MP4Box -dash 1000 -rap -frag-rap video_1.mp4
,MP4Box -dash 1000 -rap -frag-rap audio_1.mp4
],[For Part 2 :
MP4Box -dash 1000 -rap -frag-rap video_2.mp4
,MP4Box -dash 1000 -rap -frag-rap audio_2.mp4
],[For Part 3 :
MP4Box -dash 1000 -rap -frag-rap video_3.mp4
,MP4Box -dash 1000 -rap -frag-rap audio_3.mp4
],.....
[For Part 29 :
MP4Box -dash 1000 -rap -frag-rap video_29.mp4
,MP4Box -dash 1000 -rap -frag-rap audio_29.mp4
],[For Part 30 :
MP4Box -dash 1000 -rap -frag-rap video_30.mp4
,MP4Box -dash 1000 -rap -frag-rap audio_30.mp4
]. -
I receive a fragmented file for each file with "_dashinit" being in it e.g. For Part 1 :
video_1_dashinit.mp4
andaudio_1_dashinit.mp4
. These are the files I’m playing through Media Source Extension API.
So I’m appending these files into my
sourceBuffers
and playing it with thevideo
. I have given thetest.zip
file here (https://drive.google.com/file/d/1tyPBTxgpS601Xs5VEWznYhWw9PwhMHsB/view?usp=sharing) containing the test sample.I’m using this command in
CMD
to runChrome
and test my file :chrome.exe --allow-file-access-from-files
Anyone can use this test sample and see if the video is buffering for them too. Please comment about anything I’m doing wrong, or help me construct a better 5 seconds video and audio files for
MSE
playable. Thanks -
-
dashenc : Use pts for MPD timeline timestamps
17 novembre 2014, par Martin Storsjödashenc : Use pts for MPD timeline timestamps
This should be more correct. This also should give more sensible
switching between video streams with different amount of b-frame
delay.The current dash.js release (1.2.0) fails to start playback of
such files from the start (if the start pts is > 0), but this has
been fixed in the current git version of dash.js.Also enable the use of edit lists, so that streams in many cases
start at pts=0.Signed-off-by : Martin Storsjö <martin@martin.st>