
Recherche avancée
Médias (91)
-
Les Miserables
9 décembre 2019, par
Mis à jour : Décembre 2019
Langue : français
Type : Textuel
-
VideoHandle
8 novembre 2019, par
Mis à jour : Novembre 2019
Langue : français
Type : Video
-
Somos millones 1
21 juillet 2014, par
Mis à jour : Juin 2015
Langue : français
Type : Video
-
Un test - mauritanie
3 avril 2014, par
Mis à jour : Avril 2014
Langue : français
Type : Textuel
-
Pourquoi Obama lit il mes mails ?
4 février 2014, par
Mis à jour : Février 2014
Langue : français
-
IMG 0222
6 octobre 2013, par
Mis à jour : Octobre 2013
Langue : français
Type : Image
Autres articles (73)
-
Encodage et transformation en formats lisibles sur Internet
10 avril 2011MediaSPIP transforme et ré-encode les documents mis en ligne afin de les rendre lisibles sur Internet et automatiquement utilisables sans intervention du créateur de contenu.
Les vidéos sont automatiquement encodées dans les formats supportés par HTML5 : MP4, Ogv et WebM. La version "MP4" est également utilisée pour le lecteur flash de secours nécessaire aux anciens navigateurs.
Les documents audios sont également ré-encodés dans les deux formats utilisables par HTML5 :MP3 et Ogg. La version "MP3" (...) -
Monitoring de fermes de MediaSPIP (et de SPIP tant qu’à faire)
31 mai 2013, parLorsque l’on gère plusieurs (voir plusieurs dizaines) de MediaSPIP sur la même installation, il peut être très pratique d’obtenir d’un coup d’oeil certaines informations.
Cet article a pour but de documenter les scripts de monitoring Munin développés avec l’aide d’Infini.
Ces scripts sont installés automatiquement par le script d’installation automatique si une installation de munin est détectée.
Description des scripts
Trois scripts Munin ont été développés :
1. mediaspip_medias
Un script de (...) -
Participer à sa traduction
10 avril 2011Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
Actuellement MediaSPIP n’est disponible qu’en français et (...)
Sur d’autres sites (13280)
-
FFMPEG - Correct command line parameters to create a H.264 Streaming MP4 from a set of images
27 septembre 2021, par AdamI have no problems viewing a video created by my current parameters in a HTML5 browser, Flash player, Windows Phone 7, Android Phone, etc. However, they won't display on iPhone or iPad. If I modify the video using Super and select "Enable Streaming" checkbox they work on iPhone and iPad suddenly. We are suspecting that my command line parameters are incorrect for enabling h.264 streaming and are instead generating a "progressive download" video.



I'm pretty new to FFMPEG and don't understand a lot of the parameters. Can anyone help correct my existing parameters, or maybe provide the missing parameters, etc ?



Thanks in advance.



My current FFMPEG command line paramters are :



ffmpeg.exe 
 -r 30 
 -threads 4 
 -f image2 
 -i .\frame%05d.jpg 
 -i audioFile 
 -acodec aac 
 -ab 128k 
 -ar 44100
 -vcodec h264 
 -crf 27 
 -coder 1 
 -flags +loop 
 -cmp +chroma 
 -partitions +parti4x4+partp8x8+partb8x8 
 -me hex 
 -subq 5 
 -me_range 16 
 -g 60 
 -keyint_min 25 
 -sc_threshold 40 
 -i_qfactor 0.71 
 -b_strategy 1 
 out.mp4



-
Preprocessing of Columbia active speaker dataset
21 octobre 2019, par aspit794I would like to use the Columbia dataset (which is 1 video https://youtu.be/6GzxbrO0DHM) and its ground truth annotation (http://www.jaychakravarty.com/wp-content/uploads/2016/02/columbiaDatasetGroundTruth.zip).
annotation contain the frame_id (int), x and y position of the bounding box (int, int), the width=height of the bounding box (int), and the ground truth for active speaker (0 or 1)
More information : https://www.jaychakravarty.com/active-speaker-detection/
I managed to download the video, extracted the frames with
ffmpeg -loglevel 0 -i columbia.mkv columbia/frame_%06d.jpg -nostdin -vf -an -hide_banner
and draw the ground truth bounding boxes to the video frames (where available).
However, the bounding boxes are not in the correct places, and I am a bit helpless.
I tried to convert the video to other frame rate (e.g. 25 fps), but the annotation is not fit.
I read every paper available, which is related to this dataset, but neither of them mention any information about preprocessing, and the codebase is not publicly available.
How should I preprocess the video to interpret the annotation ?
-
Playing encrypted m4a on Android
20 novembre 2013, par FixeeI'm pulling down encrypted music, decrypting on-the-fly to m4a plaintext buffer and want to then play this music on Android (4.x). It appears the options are bleak :
- Write the buffer to disk and use MediaPlayer() with a FileDescriptor
- Write the buffer to disk and use a proxy like
nano
to serve MediaPlayer() via a URI - Decode the buffer to PCM and use AudioTrack to play it
Options 1 and 2 require writing plaintext to SD, which isn't acceptable. Option 3 requires decoding in software (with, eg,
ffmpeg
) which seems ridiculous : if there are hardware decoders on the device we can't use them. And if there is a software decoder, we can't access it and put yet another decoder on the device (ffmpeg's).Note that using OpenSL doesn't help at all : you still cannot play m4a's from a buffer. Is there another way ?