Recherche avancée

Médias (1)

Mot : - Tags -/biomaping

Autres articles (98)

  • HTML5 audio and video support

    13 avril 2011, par

    MediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
    The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
    For older browsers the Flowplayer flash fallback is used.
    MediaSPIP allows for media playback on major mobile platforms with the above (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (7843)

  • Invoking ffmpeg through bash through command prompt

    17 octobre 2020, par Cheezy

    I have a ffmpeg command which I am trying to run in python. Invoking it in wsl or bash works fine.

    


    The command :

    


    ffmpeg -y -i C:/Users/joel/src/tldr-dw/src/test/video_editor/input.mp4 -lavfi '[0:v]scale=ih*16/9:-1,boxblur=luma_radius=min(h\,w)/20:luma_power=1:chroma_radius=min(cw\,ch)/20:chroma_power=1[bg];[bg][0:v]overlay=(W-w)/2:(H-h)/2,crop=h=iw*9/16,scale=1920x1080' -vb 5m C:/Users/joel/src/tldr-dw/src/test/video_editor/input_output.mp4

    


    However, I am trying to get this to run in python. I am invoking it like so :

    


    subprocess.check_output([r'C:\Windows\SysNative\bash.exe', '-c', bash_command], shell=True)

    


    but am getting an error message :

    


    C:/Users/joel/src/tldr-dw/src/test/video_editor/input.mp4: Protocol not found Did you mean file:C:/Users/joel/src/tldr-dw/src/test/video_editor/input.mp4?

    


    I've tried appending "file" to the input/output paths and even switching to windows line endings. When I do the latter, it seems to escape the slashes. I get this error message :

    


    C:Usersjoelsrctldr-dwsrctestvideo_editorinput.mp4: Protocol not found Did you mean file:C:Usersjoelsrctldr-dwsrctestvideo_editorinput.mp4?

    


    All I am trying to do is run a bash command in ffmpeg from the command prompt, essentially. I get similar error messages on there. What is going on with the file paths ?

    


  • JavaCV Stream-Test code giving Error

    23 juin 2015, par user1507600

    I’m hoping someone might be able to tell me what I’m doing wrong here. I downloaded vanevery’s GitHub project “JavaCV-0.5-Stream-Test" which is a couple of years old so I updated to the latest JavaCV version 0.11. But Android Studio is returning the error...

    Error :

    "record(org.bytedeco.javacpp.Frame) in FFmpegFrameRecorder cannot be
    applied to (org.bytedeco.javacpp.opencv_core.lplimage)" for the line
    of code which reads recorder.record(yuvIplimage), under
    onPreviewFrame.

    Here is my code :

       @Override
       public void onPreviewFrame(byte[] data, Camera camera) {

           if (yuvIplimage != null && recording) {

               videoTimestamp = 1000 * (System.currentTimeMillis() - startTime);

               // Put the camera preview frame right into the yuvIplimage object
               yuvIplimage.getByteBuffer().put(data);

               try {
                   // Get the correct time
                   recorder.setTimestamp(videoTimestamp);

                   // Record the image into FFmpegFrameRecorder
                   recorder.record(yuvIplimage);

               } catch (FFmpegFrameRecorder.Exception e) {
                   Log.v(LOG_TAG,e.getMessage());
                   e.printStackTrace();
               }
           }
       }
  • libVLC using ffmpeg source code [closed]

    31 août 2015, par Moebius

    I am working with ffmpeg in order to encode video but I am not getting the results I expect. So I want to have source code examples to get inspiration. I know that libVLC use ffmpeg, but I can’t retrieve the functions using this framework out of the massive documentation. Do you know which file/function/class are concerned ? If you have any idea of interesting documentation/example of decoding using ffmpeg, please let me know (I already checked opencv).

    Thanks.