Recherche avancée

Médias (0)

Mot : - Tags -/serveur

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (20)

  • Use, discuss, criticize

    13 avril 2011, par

    Talk to people directly involved in MediaSPIP’s development, or to people around you who could use MediaSPIP to share, enhance or develop their creative projects.
    The bigger the community, the more MediaSPIP’s potential will be explored and the faster the software will evolve.
    A discussion list is available for all exchanges between users.

  • MediaSPIP Player : problèmes potentiels

    22 février 2011, par

    Le lecteur ne fonctionne pas sur Internet Explorer
    Sur Internet Explorer (8 et 7 au moins), le plugin utilise le lecteur Flash flowplayer pour lire vidéos et son. Si le lecteur ne semble pas fonctionner, cela peut venir de la configuration du mod_deflate d’Apache.
    Si dans la configuration de ce module Apache vous avez une ligne qui ressemble à la suivante, essayez de la supprimer ou de la commenter pour voir si le lecteur fonctionne correctement : /** * GeSHi (C) 2004 - 2007 Nigel McNie, (...)

  • MediaSPIP Player : les contrôles

    26 mai 2010, par

    Les contrôles à la souris du lecteur
    En plus des actions au click sur les boutons visibles de l’interface du lecteur, il est également possible d’effectuer d’autres actions grâce à la souris : Click : en cliquant sur la vidéo ou sur le logo du son, celui ci se mettra en lecture ou en pause en fonction de son état actuel ; Molette (roulement) : en plaçant la souris sur l’espace utilisé par le média (hover), la molette de la souris n’exerce plus l’effet habituel de scroll de la page, mais diminue ou (...)

Sur d’autres sites (6532)

  • ffmpeg overlay image and lower transparency

    15 juin 2017, par JohanR

    I have this ffmpeg command that I use to create a video from a photo and a animated GIF border overlay, and a audio track.

    ffmpeg -framerate 15 -loop 1 -i photo.jpg -ignore_loop 0 -i overlay.gif -filter_complex "scale=(iw*sar)*max(600/(iw*sar)\,750/ih):ih*max(600/(iw*sar)\,750/ih), crop=600:750, overlay" -i audio.wav -c:v libx264 -c:a aac -b:a 192k -shortest output.mp4

    What I want is to lower the opacity of the overlay image.

    I have checked a lot of threads, but I can’t figure out how to combine something like this with my existing filters.

    -filter_complex "blend=all_mode='overlay':all_opacity=0.7"

    Any ideas ?


    Here’s the full ffmpeg output of one of my tests :

    ffmpeg -framerate 15 -loop 1 -i photo.jpg -ignore_loop 0 -i overlay.gif -filter_complex "scale=(iw*sar)*max(600/(iw*sar)\,750/ih):ih*max(600/(iw*sar)\,750/ih), crop=600:750, blend=all_mode='overlay':all_opacity=0.7" -i audio.wav -c:v libx264 -c:a aac -b:a 192k -shortest output.mp4

    ffmpeg version N-83507-g8fa18e0 Copyright (c) 2000-2017 the FFmpeg developers
     built with gcc 5.4.0 (GCC)
     configuration: --enable-gpl --enable-version3 --enable-cuda --enable-cuvid --enable-d3d11va --enable-dxva2 --enable-libmfx --enable-nvenc --enable-avisynth --enable-bzlib --enable-fontconfig --enabl
    e-frei0r --enable-gnutls --enable-iconv --enable-libass --enable-libbluray --enable-libbs2b --enable-libcaca --enable-libfreetype --enable-libgme --enable-libgsm --enable-libilbc --enable-libmodplug -
    -enable-libmp3lame --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenh264 --enable-libopenjpeg --enable-libopus --enable-librtmp --enable-libsnappy --enable-libsoxr --enable-libspe
    ex --enable-libtheora --enable-libtwolame --enable-libvidstab --enable-libvo-amrwbenc --enable-libvorbis --enable-libvpx --enable-libwavpack --enable-libwebp --enable-libx264 --enable-libx265 --enable
    -libxavs --enable-libxvid --enable-libzimg --enable-lzma --enable-zlib
     libavutil      55. 47.100 / 55. 47.100
     libavcodec     57. 80.100 / 57. 80.100
     libavformat    57. 66.102 / 57. 66.102
     libavdevice    57.  2.100 / 57.  2.100
     libavfilter     6. 73.100 /  6. 73.100
     libswscale      4.  3.101 /  4.  3.101
     libswresample   2.  4.100 /  2.  4.100
     libpostproc    54.  2.100 / 54.  2.100
    Input #0, image2, from 'photo.jpg':
     Duration: 00:00:00.07, start: 0.000000, bitrate: 15374 kb/s
       Stream #0:0: Video: mjpeg, yuvj420p(pc, bt470bg/unknown/unknown), 400x600 [SAR 72:72 DAR 2:3], 15 fps, 15 tbr, 15 tbn, 15 tbc
    Input #1, gif, from 'overlay.gif':
     Duration: N/A, bitrate: N/A
       Stream #1:0: Video: gif, bgra, 600x750, 5.42 fps, 5 tbr, 100 tbn, 100 tbc
    Guessed Channel Layout for Input Stream #2.0 : mono
    Input #2, wav, from 'audio.wav':
     Duration: 00:00:23.00, bitrate: 705 kb/s
       Stream #2:0: Audio: pcm_s16le ([1][0][0][0] / 0x0001), 44100 Hz, mono, s16, 705 kb/s
    [swscaler @ 00000000023300a0] deprecated pixel format used, make sure you did set range correctly
    [swscaler @ 000000000234d1e0] deprecated pixel format used, make sure you did set range correctly
    [Parsed_blend_2 @ 00000000022fd0c0] First input link top parameters (size 600x750, SAR 1:1) do not match the corresponding second input link bottom parameters (600x750, SAR 0:1)
    [Parsed_blend_2 @ 00000000022fd0c0] Failed to configure output pad on Parsed_blend_2
    Error configuring complex filters.
    Invalid argument
  • Issues mapping multiple Axis RTSP streams using FFMPEG

    26 juin 2017, par Alex R

    I have an application built in C# that leverages FFMPEG to map 3 h264 RTSP streams from Axis cameras along with a gdigrab screen recording and saves everything to a file using this command :

    -rtsp_transport tcp -i rtsp://192.168.1.200/axis-media/media.amp -rtsp_transport tcp -i rtsp://192.168.2.200/axis-media/media.amp -rtsp_transport tcp -i rtsp://192.168.3.200/axis-media/media.amp -r 30 -f gdigrab -framerate 1 -i title="MainWindow"  -c copy -map 0 -vcodec copy -map 1 -metadata title="6-26-2017-4-22-PM- TEST VIDEO" -vcodec copy -map 2 -vcodec copy -map 3 -vcodec h264 -preset ultrafast C:\Users\*USERNAME*\6-26-2017-4-22-PM-cam1comb.mkv

    The issue that I’m having is that the Axis camera streams are out of sync with each other, with approximately a 3 second delay between the three streams. When I test the FFMPEG command with all inputs changed to this stream rtsp://mpv.cdn3.bigCDN.com:554/bigCDN/_definst_/mp4:bigbuckbunnyiphone_400.mp4 as well as the screen grab however, everything works perfectly.

  • Slideshow video created by ffmpeg with pad+vstack filters only contains one image

    27 juin 2017, par user3011750
    $ ls -1 *.jpg
    1.jpg # could be any size, here is 210×315
    2.jpg # could be any size, here is 480x480
    3.jpg # could be any size, here is 480x480

    $ ls -1 *.png
    bg.png # 480x160

    $ ffmpeg -y -r 0.5 -pattern_type glob -i '*.jpg' -i bg.png -filter_complex 'scale=iw*min(480/iw\,480/ih):ih*min(480/iw\,480/ih),pad=480:480:(480-iw*min(480/iw\,480/ih))/2:(480-ih*min(480/iw\,480/ih))/2,vstack' -vsync vfr -c:v libx264 -pix_fmt yuv420p out.mp4

    ...

    $ ffprobe out.mp4
    ffprobe version 3.3.2 Copyright (c) 2007-2017 the FFmpeg developers
     built with Apple LLVM version 8.1.0 (clang-802.0.42)
     configuration: --prefix=/usr/local/Cellar/ffmpeg/3.3.2 --enable-shared --enable-pthreads --enable-gpl --enable-version3 --enable-hardcoded-tables --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-libfreetype --enable-libmp3lame --enable-libx264 --enable-libxvid --enable-opencl --disable-lzma --enable-vda
     libavutil      55. 58.100 / 55. 58.100
     libavcodec     57. 89.100 / 57. 89.100
     libavformat    57. 71.100 / 57. 71.100
     libavdevice    57.  6.100 / 57.  6.100
     libavfilter     6. 82.100 /  6. 82.100
     libavresample   3.  5.  0 /  3.  5.  0
     libswscale      4.  6.100 /  4.  6.100
     libswresample   2.  7.100 /  2.  7.100
     libpostproc    54.  5.100 / 54.  5.100
    Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'out.mp4':
     Metadata:
       major_brand     : isom
       minor_version   : 512
       compatible_brands: isomiso2avc1mp41
       encoder         : Lavf57.71.100
     Duration: 00:00:02.00, start: 0.000000, bitrate: 152 kb/s
       Stream #0:0(und): Video: h264 (High) (avc1 / 0x31637661), yuv420p, 480x640 [SAR 1:1 DAR 3:4], 149 kb/s, 0.50 fps, 0.50 tbr, 16384 tbn, 1 tbc (default)
       Metadata:
         handler_name    : VideoHandler

    The video size 480x640 is correct, but it only lasts 2 seconds, only contains the first image 1.jpg, please tell me how I can solve this problem ?

    -------