
Recherche avancée
Autres articles (42)
-
La sauvegarde automatique de canaux SPIP
1er avril 2010, parDans le cadre de la mise en place d’une plateforme ouverte, il est important pour les hébergeurs de pouvoir disposer de sauvegardes assez régulières pour parer à tout problème éventuel.
Pour réaliser cette tâche on se base sur deux plugins SPIP : Saveauto qui permet une sauvegarde régulière de la base de donnée sous la forme d’un dump mysql (utilisable dans phpmyadmin) mes_fichiers_2 qui permet de réaliser une archive au format zip des données importantes du site (les documents, les éléments (...) -
Les statuts des instances de mutualisation
13 mars 2010, parPour des raisons de compatibilité générale du plugin de gestion de mutualisations avec les fonctions originales de SPIP, les statuts des instances sont les mêmes que pour tout autre objets (articles...), seuls leurs noms dans l’interface change quelque peu.
Les différents statuts possibles sont : prepa (demandé) qui correspond à une instance demandée par un utilisateur. Si le site a déjà été créé par le passé, il est passé en mode désactivé. publie (validé) qui correspond à une instance validée par un (...) -
Librairies et binaires spécifiques au traitement vidéo et sonore
31 janvier 2010, parLes logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
Binaires complémentaires et facultatifs flvtool2 : (...)
Sur d’autres sites (5803)
-
Understanding ffmpeg map option
7 avril 2021, par Austin KykerI came across the following command in a blog post which creates different quality video streams that are packaged into DASH format via the dash muxer.


ffmpeg -i $VIDEO_IN \
 -preset $PRESET_P -keyint_min $GOP_SIZE -g $GOP_SIZE -sc_threshold 0 \
 -r $FPS -c:v libx264 -pix_fmt yuv420p -c:a aac -b:a 128k -ac 1 -ar 44100 \
 -map v:0 -s:0 $V_SIZE_1 -b:v:0 2M -maxrate:0 2.14M -bufsize:0 3.5M \
 -map v:0 -s:1 $V_SIZE_2 -b:v:1 145k -maxrate:1 155k -bufsize:1 220k \
 -map v:0 -s:2 $V_SIZE_3 -b:v:2 365k -maxrate:2 390k -bufsize:2 640k \
 -map v:0 -s:3 $V_SIZE_4 -b:v:3 730k -maxrate:3 781k -bufsize:3 1278k \
 -map v:0 -s:4 $V_SIZE_4 -b:v:4 1.1M -maxrate:4 1.17M -bufsize:4 2M \
 -map v:0 -s:5 $V_SIZE_5 -b:v:5 3M -maxrate:5 3.21M -bufsize:5 5.5M \
 -map v:0 -s:6 $V_SIZE_5 -b:v:6 4.5M -maxrate:6 4.8M -bufsize:6 8M \
 -map v:0 -s:7 $V_SIZE_6 -b:v:7 6M -maxrate:7 6.42M -bufsize:7 11M \
 -map v:0 -s:8 $V_SIZE_6 -b:v:8 7.8M -maxrate:8 8.3M -bufsize:8 14M \
 -map 0:a \
 -init_seg_name init\$RepresentationID\$.\$ext\$ -media_seg_name chunk\$RepresentationID\$-\$Number%05d\$.\$ext\$ \
 -use_template 1 -use_timeline 1 \
 -seg_duration 4 -adaptation_sets "id=0,streams=v id=1,streams=a" \
 -f dash Dash/dash.mpd



The thing I'm struggling to understand is how the maps work. I've read the Map docs but they don't seem to have a comparable example.


- 

- Why is -map v:0 used for every video stream ?
- Why does the first map line operate on stream 0 (e.g. -b:v:0) and the next map line operates on stream 1 (e.g. -b:v:1), etc.






Would really appreciate a breakdown.


-
How to implement multiple video resolutions on front and back-end
25 février 2021, par LanGuuI need a solution or hint on how should I handle multiple resolutions on front-end and back-end. I have been reading about hls, dash, and mse for last few days but the more information I read, the more lost I am.


Right now I have only a microservice for downscaling video using FFmpeg. The FFmpeg returns mp4 with no hls or dash, 4 video resolutions with no sound, and 2 different audio quality.
On front-end, I use react-player. The hardest part is that I need to merge audio and video, synchronize and handle change quality events.
I have found Media source extensions but it won't work I am not sure, but probably because I am using raw mp4 files.


I would like to ask you a few questions


- 

- It is possible to combine video and audio sources without MSE and still keep video and audio separate
- Do I need HLS or Dash to use MSE ?
- What is a difference between progressive download and progressive streaming ?
- If I have to choose what is better right now hls or dash ? what is much easier to implement ?










-
Can I pipe multiple ffmpeg outputs to different pipes ?
4 mars 2021, par mr. rogersI have an AWS workflow that streams an audio or video file from S3 to ffmpeg inside a lambda. Which then streams the encoded output back to S3. I want to extend that flow to generate DASH content. On my local device, I can generate the MPD file and the encoded AV files. And there's the problem. Encoding to dash generates at least two files, even with the -single_file flag.


Can I limit the dash export to just the video or MPD file ? Or can I somehow pipe the multiple outputs separately through some flag magic ?


Thanks in advance.