
Recherche avancée
Médias (1)
-
Rennes Emotion Map 2010-11
19 octobre 2011, par
Mis à jour : Juillet 2013
Langue : français
Type : Texte
Autres articles (98)
-
HTML5 audio and video support
13 avril 2011, parMediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
For older browsers the Flowplayer flash fallback is used.
MediaSPIP allows for media playback on major mobile platforms with the above (...) -
Support audio et vidéo HTML5
10 avril 2011MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...) -
De l’upload à la vidéo finale [version standalone]
31 janvier 2010, parLe chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
Upload et récupération d’informations de la vidéo source
Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)
Sur d’autres sites (7843)
-
Invoking ffmpeg through bash through command prompt
17 octobre 2020, par CheezyI have a ffmpeg command which I am trying to run in python. Invoking it in wsl or bash works fine.


The command :


ffmpeg -y -i C:/Users/joel/src/tldr-dw/src/test/video_editor/input.mp4 -lavfi '[0:v]scale=ih*16/9:-1,boxblur=luma_radius=min(h\,w)/20:luma_power=1:chroma_radius=min(cw\,ch)/20:chroma_power=1[bg];[bg][0:v]overlay=(W-w)/2:(H-h)/2,crop=h=iw*9/16,scale=1920x1080' -vb 5m C:/Users/joel/src/tldr-dw/src/test/video_editor/input_output.mp4


However, I am trying to get this to run in python. I am invoking it like so :


subprocess.check_output([r'C:\Windows\SysNative\bash.exe', '-c', bash_command], shell=True)


but am getting an error message :


C:/Users/joel/src/tldr-dw/src/test/video_editor/input.mp4: Protocol not found Did you mean file:C:/Users/joel/src/tldr-dw/src/test/video_editor/input.mp4?


I've tried appending "file" to the input/output paths and even switching to windows line endings. When I do the latter, it seems to escape the slashes. I get this error message :


C:Usersjoelsrctldr-dwsrctestvideo_editorinput.mp4: Protocol not found Did you mean file:C:Usersjoelsrctldr-dwsrctestvideo_editorinput.mp4?


All I am trying to do is run a bash command in ffmpeg from the command prompt, essentially. I get similar error messages on there. What is going on with the file paths ?


-
JavaCV Stream-Test code giving Error
23 juin 2015, par user1507600I’m hoping someone might be able to tell me what I’m doing wrong here. I downloaded vanevery’s GitHub project “JavaCV-0.5-Stream-Test" which is a couple of years old so I updated to the latest JavaCV version 0.11. But Android Studio is returning the error...
Error :
"record(org.bytedeco.javacpp.Frame) in FFmpegFrameRecorder cannot be
applied to (org.bytedeco.javacpp.opencv_core.lplimage)" for the line
of code which reads recorder.record(yuvIplimage), under
onPreviewFrame.Here is my code :
@Override
public void onPreviewFrame(byte[] data, Camera camera) {
if (yuvIplimage != null && recording) {
videoTimestamp = 1000 * (System.currentTimeMillis() - startTime);
// Put the camera preview frame right into the yuvIplimage object
yuvIplimage.getByteBuffer().put(data);
try {
// Get the correct time
recorder.setTimestamp(videoTimestamp);
// Record the image into FFmpegFrameRecorder
recorder.record(yuvIplimage);
} catch (FFmpegFrameRecorder.Exception e) {
Log.v(LOG_TAG,e.getMessage());
e.printStackTrace();
}
}
} -
libVLC using ffmpeg source code [closed]
31 août 2015, par MoebiusI am working with ffmpeg in order to encode video but I am not getting the results I expect. So I want to have source code examples to get inspiration. I know that libVLC use ffmpeg, but I can’t retrieve the functions using this framework out of the massive documentation. Do you know which file/function/class are concerned ? If you have any idea of interesting documentation/example of decoding using ffmpeg, please let me know (I already checked opencv).
Thanks.