Recherche avancée

Médias (91)

Autres articles (88)

  • Mise à disposition des fichiers

    14 avril 2011, par

    Par défaut, lors de son initialisation, MediaSPIP ne permet pas aux visiteurs de télécharger les fichiers qu’ils soient originaux ou le résultat de leur transformation ou encodage. Il permet uniquement de les visualiser.
    Cependant, il est possible et facile d’autoriser les visiteurs à avoir accès à ces documents et ce sous différentes formes.
    Tout cela se passe dans la page de configuration du squelette. Il vous faut aller dans l’espace d’administration du canal, et choisir dans la navigation (...)

  • Encodage et transformation en formats lisibles sur Internet

    10 avril 2011

    MediaSPIP transforme et ré-encode les documents mis en ligne afin de les rendre lisibles sur Internet et automatiquement utilisables sans intervention du créateur de contenu.
    Les vidéos sont automatiquement encodées dans les formats supportés par HTML5 : MP4, Ogv et WebM. La version "MP4" est également utilisée pour le lecteur flash de secours nécessaire aux anciens navigateurs.
    Les documents audios sont également ré-encodés dans les deux formats utilisables par HTML5 :MP3 et Ogg. La version "MP3" (...)

  • Monitoring de fermes de MediaSPIP (et de SPIP tant qu’à faire)

    31 mai 2013, par

    Lorsque l’on gère plusieurs (voir plusieurs dizaines) de MediaSPIP sur la même installation, il peut être très pratique d’obtenir d’un coup d’oeil certaines informations.
    Cet article a pour but de documenter les scripts de monitoring Munin développés avec l’aide d’Infini.
    Ces scripts sont installés automatiquement par le script d’installation automatique si une installation de munin est détectée.
    Description des scripts
    Trois scripts Munin ont été développés :
    1. mediaspip_medias
    Un script de (...)

Sur d’autres sites (14506)

  • avformat/omadec : only compute timestamps based on bitrate if its set

    7 février 2015, par Michael Niedermayer
    avformat/omadec : only compute timestamps based on bitrate if its set
    

    Fixes division by zero

    Signed-off-by : Michael Niedermayer <michaelni@gmx.at>

    • [DH] libavformat/omadec.c
  • FFMPEG segment audio stream based on silence

    2 août 2024, par Christian Seyoum

    I have a websocket connection that gets a stream of audio. I am piping the stream to FFMPEG and using it to segemnt the audio in real time. Currenlty the audio does get segemented but all the segemented audio is 10 seconds long rather than being segmented when silence is detected. I am using node.js typescript :

    &#xA;

    var proc = cp.spawn(ffmpeg, [&#xA;      &#x27;-f&#x27;, &#x27;s16le&#x27;,       // Input format: signed 16-bit little-endian PCM&#xA;    &#x27;-ar&#x27;, &#x27;8000&#x27;,       // Sample rate: 8000 Hz&#xA;    &#x27;-ac&#x27;, &#x27;1&#x27;,          // Audio channels: 1 (mono)&#xA;    &#x27;-i&#x27;, &#x27;-&#x27;,  &#x27;-af&#x27;,&#xA;      &#x27;silencedetect=noise=-18dB:d=0.1&#x27;, &#x27;-f&#x27;,&#xA;      &#x27;segment&#x27;, &#xA;      &#x27;-segment_time&#x27;, &#x27;10&#x27;,&#xA;    &#x27;-reset_timestamps&#x27;, &#x27;1&#x27;,&#xA;      `${fileNameSubStringPath}_%03d.wav`&#xA;    ]);&#xA;

    &#xA;

    I have tried changing the silencedetect values and the segment time. But notthing seems to work.

    &#xA;

    Is there a better way to segment audio based on silence ?

    &#xA;

  • Extracting frame out of video based on time in seconds

    20 avril 2024, par Vicky

    I'm developing a web-based video editing tool where users can pause a video and draw circles or lines on it using canvas. When a user pauses the video, I retrieve the current playback time in seconds using the HTML5 video.currentTime property. I then send this time value along with the shape details to the server. On the server-side, we use FFmpeg to extract the specific paused frame from the video. The issue I'm encountering is a frame mismatch between the one displayed in the browser and the one generated in the backend using FFmpeg.

    &#xA;

    I've experimented with various approaches for this process.

    &#xA;

    Extracting frame based on time. Example : in this case time is 3.360 second.

    &#xA;

    &#xA;

    ffmpeg -i input.mp4 -ss 00:00:03.360 -frames:v 1 frame.jpg

    &#xA;

    &#xA;

    Converting time to frame number using the following logic : Math.round(video.currentTime * fps)

    &#xA;

    &#xA;

    ffmpeg -i input.mp4 -vf "select=eq(n,101)" -vsync vfr frame.jpg

    &#xA;

    &#xA;

    &#xA;

    ffmpeg -i input .mp4 -vf "select='lt(t,3.360)lt(3.360-t,1/31.019)',setpts=N/(31.019TB)" -vsync 0 frame.jpg

    &#xA;

    &#xA;

    The challenge I'm facing is that sometimes the frame I see in the browser at the pause time doesn't match the one generated in the backend using FFmpeg. How can I solve this problem ? If it's an issue with currentTime, are there any other approaches I can try ?

    &#xA;