
Recherche avancée
Médias (1)
-
Rennes Emotion Map 2010-11
19 octobre 2011, par
Mis à jour : Juillet 2013
Langue : français
Type : Texte
Autres articles (61)
-
Participer à sa traduction
10 avril 2011Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
Actuellement MediaSPIP n’est disponible qu’en français et (...) -
(Dés)Activation de fonctionnalités (plugins)
18 février 2011, parPour gérer l’ajout et la suppression de fonctionnalités supplémentaires (ou plugins), MediaSPIP utilise à partir de la version 0.2 SVP.
SVP permet l’activation facile de plugins depuis l’espace de configuration de MediaSPIP.
Pour y accéder, il suffit de se rendre dans l’espace de configuration puis de se rendre sur la page "Gestion des plugins".
MediaSPIP est fourni par défaut avec l’ensemble des plugins dits "compatibles", ils ont été testés et intégrés afin de fonctionner parfaitement avec chaque (...) -
Les tâches Cron régulières de la ferme
1er décembre 2010, parLa gestion de la ferme passe par l’exécution à intervalle régulier de plusieurs tâches répétitives dites Cron.
Le super Cron (gestion_mutu_super_cron)
Cette tâche, planifiée chaque minute, a pour simple effet d’appeler le Cron de l’ensemble des instances de la mutualisation régulièrement. Couplée avec un Cron système sur le site central de la mutualisation, cela permet de simplement générer des visites régulières sur les différents sites et éviter que les tâches des sites peu visités soient trop (...)
Sur d’autres sites (9422)
-
Save live video stream to a video file
29 juin 2023, par VISHAL DAGATrying to save live streaming video data into a (any) playable video file.
When I log the data I see the following (Put in comment in below code) :-


axios.get(`http://192.168.1.33`, {
 responseType: 'stream',
}).then((response)=>{
 const stream = response.data
 stream.on('data', data => {
 console.log(data); // <buffer 4c="4c" 28="28" a1="a1" 0c="0c" 0d="0d" 14="14" 0e="0e" e1="e1" 8e="8e" eb="eb" 52="52" 48="48" d0="d0" c0="c0" 4a="4a" 68="68" 7b="7b" 0b="0b" c7="c7" 7c="7c" d2="d2" 55="55" 21="21" 0a="0a" a9="a9" 63="63" 12="12" 96="96" 9b="9b" 00="00" ed="ed" 49="49" 42="42" 1a="1a" 16="16" a4="a4" 1e="1e" 94="94" 50="50" 20="20" a3="a3" d8="d8" d5="d5" 1386="1386" more="more" bytes="bytes">
 // <buffer 0d="0d" cb="cb" 4b="4b" f7="f7" 77="77" 36="36" c8="c8" 42="42" 9d="9d" bb="bb" b3="b3" d6="d6" a3="a3" 72="72" 24="24" ff="ff" 00="00" 9e="9e" 29="29" b8="b8" 35="35" a5="a5" 48="48" ad="ad" e2="e2" 11="11" a9="a9" ec="ec" 38="38" 1d="1d" e1="e1" 91="91" 93="93" 73="73" bf="bf" a6="a6" 96="96" 62="62" 26="26" 57="57" f4="f4" a4="a4" 4258="4258" more="more" bytes="bytes">
 // ....
</buffer></buffer>


How can I save this data into a video file which can be played ? I am starting to read from live stream at a certain point in time and reading it for few seconds - ex. 5 seconds. I need to have a video of that 5 seconds.


Note, when I use the url : http://192.168.1.33, I can see the video on the browser.


-
Concat video output does not skip ahead or go backwards like normal video
6 août 2020, par JOHN DADSi ran this basic concat code to combine an image and audio to output an mp4 video but the output video plays perfectly except for the fact that if I want to skip ahead in the video it goes back to the original position. This was run on python


audio = ffmpeg.input("beat.mp3")

picture = ffmpeg.input("image.jpg")

ffmpeg.concat(picture, audio, v=1, a=1).output("video3.mp4").run()



-
tensorflow 2, tfds.features.Video Usage for video decoding
5 mars 2020, par SandeepI am trying to decode a video in tensorflow 2 using tfds.features.Video , so that the output is a "tf.Tensor of type tf.uint8 and shape [num_frames, height, width, channels]" using following code :
import numpy as np
import pandas as pd
import tensorflow as tf
import tensorflow_datasets as tfdsdf_trains= pd.DataFrame()
df_trains[’video_files’]= [’aa.mp4’]files_ds = tf.data.Dataset.from_tensor_slices(df_trains.video_files)
video_class = tfds.features.Video(shape=(None, 1080, 1920,3), encoding_format=’png’, ffmpeg_extra_args=())
a= video_class.decode_example(files_ds)However it generates following error :
"AssertionError : Feature Video can only be decoded when defined as top-level feature, through info.features.decode_example()"I am unable to solve it, please help in this regard.