Recherche avancée

Médias (0)

Mot : - Tags -/flash

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (49)

  • Les vidéos

    21 avril 2011, par

    Comme les documents de type "audio", Mediaspip affiche dans la mesure du possible les vidéos grâce à la balise html5 .
    Un des inconvénients de cette balise est qu’elle n’est pas reconnue correctement par certains navigateurs (Internet Explorer pour ne pas le nommer) et que chaque navigateur ne gère en natif que certains formats de vidéos.
    Son avantage principal quant à lui est de bénéficier de la prise en charge native de vidéos dans les navigateur et donc de se passer de l’utilisation de Flash et (...)

  • Websites made ​​with MediaSPIP

    2 mai 2011, par

    This page lists some websites based on MediaSPIP.

  • Possibilité de déploiement en ferme

    12 avril 2011, par

    MediaSPIP peut être installé comme une ferme, avec un seul "noyau" hébergé sur un serveur dédié et utilisé par une multitude de sites différents.
    Cela permet, par exemple : de pouvoir partager les frais de mise en œuvre entre plusieurs projets / individus ; de pouvoir déployer rapidement une multitude de sites uniques ; d’éviter d’avoir à mettre l’ensemble des créations dans un fourre-tout numérique comme c’est le cas pour les grandes plate-formes tout public disséminées sur le (...)

Sur d’autres sites (5991)

  • FFMPEG fails with only two input frames

    3 mars 2019, par JeffThompson

    I’d like to use ffmpeg’s great frame interpolation to blend two images. I get great results when testing with about a dozen frames, but when only using two it finishes immediately and I get a video file that can’t be opened.

    My command :

    ffmpeg -y -r 24 -pattern_type glob -i "TestFrames/*[0-1].png" -pix_fmt yuv420p -filter:v "minterpolate='mi_mode=mci:mc_mode=aobmc:me_mode=bidir:vsbmc=1:fps=1024'" -vsync 2 8.mp4

    Output from ffmpeg :

    ffmpeg version 4.1.1 Copyright (c) 2000-2019 the FFmpeg developers
     built with Apple LLVM version 10.0.0 (clang-1000.11.45.5)
     configuration: --prefix=/usr/local/Cellar/ffmpeg/4.1.1 --enable-shared --enable-pthreads --enable-version3 --enable-hardcoded-tables --enable-avresample --cc=clang --host-cflags='-I/Library/Java/JavaVirtualMachines/openjdk-11.0.2.jdk/Contents/Home/include -I/Library/Java/JavaVirtualMachines/openjdk-11.0.2.jdk/Contents/Home/include/darwin' --host-ldflags= --enable-ffplay --enable-gnutls --enable-gpl --enable-libaom --enable-libbluray --enable-libmp3lame --enable-libopus --enable-librubberband --enable-libsnappy --enable-libtesseract --enable-libtheora --enable-libvorbis --enable-libvpx --enable-libx264 --enable-libx265 --enable-libxvid --enable-lzma --enable-libfontconfig --enable-libfreetype --enable-frei0r --enable-libass --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librtmp --enable-libspeex --enable-videotoolbox --disable-libjack --disable-indev=jack --enable-libaom --enable-libsoxr
     libavutil      56. 22.100 / 56. 22.100
     libavcodec     58. 35.100 / 58. 35.100
     libavformat    58. 20.100 / 58. 20.100
     libavdevice    58.  5.100 / 58.  5.100
     libavfilter     7. 40.101 /  7. 40.101
     libavresample   4.  0.  0 /  4.  0.  0
     libswscale      5.  3.100 /  5.  3.100
     libswresample   3.  3.100 /  3.  3.100
     libpostproc    55.  3.100 / 55.  3.100
    Input #0, image2, from 'TestFrames/*.png':
     Duration: 00:00:00.08, start: 0.000000, bitrate: N/A
       Stream #0:0: Video: png, rgba(pc), 1080x1080, 25 tbr, 25 tbn, 25 tbc
    Stream mapping:
     Stream #0:0 -> #0:0 (png (native) -> h264 (libx264))
    Press [q] to stop, [?] for help
    [libx264 @ 0x7fa5c2813200] using cpu capabilities: MMX2 SSE2Fast SSSE3 SSE4.2 AVX FMA3 BMI2 AVX2
    [libx264 @ 0x7fa5c2813200] profile High, level 6.1
    [libx264 @ 0x7fa5c2813200] 264 - core 155 r2917 0a84d98 - H.264/MPEG-4 AVC codec - Copyleft 2003-2018 - http://www.videolan.org/x264.html - options: cabac=1 ref=3 deblock=1:0:0 analyse=0x3:0x113 me=hex subme=7 psy=1 psy_rd=1.00:0.00 mixed_ref=1 me_range=16 chroma_me=1 trellis=1 8x8dct=1 cqm=0 deadzone=21,11 fast_pskip=1 chroma_qp_offset=-2 threads=12 lookahead_threads=2 sliced_threads=0 nr=0 decimate=1 interlaced=0 bluray_compat=0 constrained_intra=0 bframes=3 b_pyramid=2 b_adapt=1 b_bias=0 direct=1 weightb=1 open_gop=0 weightp=2 keyint=250 keyint_min=25 scenecut=40 intra_refresh=0 rc_lookahead=40 rc=crf mbtree=1 crf=23.0 qcomp=0.60 qpmin=0 qpmax=69 qpstep=4 ip_ratio=1.40 aq=1:1.00
    Output #0, mp4, to '8.mp4':
     Metadata:
       encoder         : Lavf58.20.100
       Stream #0:0: Video: h264 (libx264) (avc1 / 0x31637661), yuv420p, 1080x1080, q=-1--1, 1024 fps, 16384 tbn, 1024 tbc
       Metadata:
         encoder         : Lavc58.35.100 libx264
       Side data:
         cpb: bitrate max/min/avg: 0/0/0 buffer size: 0 vbv_delay: -1
    frame=    0 fps=0.0 q=0.0 Lsize=       0kB time=00:00:00.00 bitrate=N/A speed=   0x    
    video:0kB audio:0kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: unknown

    (Why fps=1024 ? I wanted to generate a a bunch of frames between the two images, so I plan to later separate the resulting video into separate images.)

  • Converting ffmpeg & ffprobe outputs to variables in an ffmpeg AWS Lambda Layer

    7 mars 2019, par Gracie

    I have two tasks I am trying to perform with the ffmpeg AWS Lambda layer.

    1) Convert an audio file from stereo to mono (with ffmpeg)

    2) Get the duration of the audio file and pass the result to a variable (with ffprobe)

    const { spawnSync } = require("child_process");
    const { readFileSync, writeFileSync, unlinkSync } = require("fs");
    const util = require('util');
    var fs = require('fs');

    exports.handler = (event, context, callback) => {

       // Windows 10 ffmpeg command to convert stereo to ffmpeg is
       // ffmpeg -i volando.flac -ac 1 volando-mono.flac

       // Convert from stereo to mono
       spawnSync(
           "/opt/bin/ffmpeg",
           [
               "-i",
               `volando.flac`,
               "-ac",
               "1",
               `/tmp/volando-mono.flac`
           ],
           { stdio: "inherit" }
       );

       //Pass result to a variable
       //var duration = stdio;

       //Read the content from the /tmp directory
       fs.readdir("/tmp/", function (err, data) {
           if (err) throw err;
           console.log('Contents of tmp file: ', data);
       });

       // Get duration of Flac file
       // Windows 10 ffmpeg command is
       // ffprobe in.wav -show_entries stream=duration -select_streams a -of compact=p=0:nk=1 -v 0
       spawnSync(
           "/opt/bin/ffprobe",
           [
               `in.wav`,
               "-show_entries",
               "stream=duration",
               "-select_streams",
               "a",
               "-of",
               "compact=p=0:nk=1",
               "-v",
               "0"
           ],
           { stdio: "inherit" }

           //Pass result to a variable
           //var duration = stdio;
       );

    };

    Can anyone who has had success with this ffmpeg Lambda layer help get an output for these commands ?

    Here are some resources regarding the FFmpeg Lambda layer :

    https://serverless.com/blog/publish-aws-lambda-layers-serverless-framework/
    https://github.com/serverlesspub/ffmpeg-aws-lambda-layer
    https://devopstar.com/2019/01/28/serverless-watermark-using-aws-lambda-layers-ffmpeg/

  • Cannot play media. No decoders for requested formats

    15 novembre 2023, par Mehran Hamzeh

    I get this error to play video in hls player :

    


    Cannot play media. No decoders for requested formats : application/vnd.apple.mpegurl

    


    I tried many ways to solve the problem, but the video cannot be played.

    


    I am using Windows Server 2019, on which I also installed ffmpeg.

    


    What should I do to solve the problem ? Please, instruct me !

    


    installed ffmpeg
Add Mime Type
Install the flash plugin
install Codecs Plugin
Reinstall the browsers