Recherche avancée

Médias (0)

Mot : - Tags -/interaction

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (27)

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

  • Ajouter notes et légendes aux images

    7 février 2011, par

    Pour pouvoir ajouter notes et légendes aux images, la première étape est d’installer le plugin "Légendes".
    Une fois le plugin activé, vous pouvez le configurer dans l’espace de configuration afin de modifier les droits de création / modification et de suppression des notes. Par défaut seuls les administrateurs du site peuvent ajouter des notes aux images.
    Modification lors de l’ajout d’un média
    Lors de l’ajout d’un média de type "image" un nouveau bouton apparait au dessus de la prévisualisation (...)

  • Emballe médias : à quoi cela sert ?

    4 février 2011, par

    Ce plugin vise à gérer des sites de mise en ligne de documents de tous types.
    Il crée des "médias", à savoir : un "média" est un article au sens SPIP créé automatiquement lors du téléversement d’un document qu’il soit audio, vidéo, image ou textuel ; un seul document ne peut être lié à un article dit "média" ;

Sur d’autres sites (3243)

  • Restream a rtsp stream to a rtmp server

    26 septembre 2022, par Sayan Chakraborty

    I have few hikvision cameras, I want to access it remotely in an app that I wrote. I am able to get the camera feed when I am connected to the network which has the camera. So I have setup a rtmp server in ec2 with Nginx, where I will be broadcasting the camera video feed through the raspberry pi, and would Be able to fetch the feed in my app.

    


    I used obs to stream the camera feed to the ramp server and was able to successfully get the video feed from the ec2 instance, but when using ffmpeg I am getting the following error.

    


    pi@raspberrypi:~$ ffmpeg -re -i rtsp://admin:pass@192.168.0.253/ISAPI/Streaming/channels/101 -an -c:v libx264 -f flv rtmp://ec2instanceip/live
ffmpeg version 4.2.7-0ubuntu0.1 Copyright (c) 2000-2022 the FFmpeg developers
  built with gcc 9 (Ubuntu 9.4.0-1ubuntu1~20.04.1)
  configuration: --prefix=/usr --extra-version=0ubuntu0.1 --toolchain=hardened --libdir=/usr/lib/x86_64-linux-gnu --incdir=/usr/include/x86_64-linux-gnu --arch=amd64 --enable-gpl --disable-stripping --enable-avresample --disable-filter=resample --enable-avisynth --enable-gnutls --enable-ladspa --enable-libaom --enable-libass --enable-libbluray --enable-libbs2b --enable-libcaca --enable-libcdio --enable-libcodec2 --enable-libflite --enable-libfontconfig --enable-libfreetype --enable-libfribidi --enable-libgme --enable-libgsm --enable-libjack --enable-libmp3lame --enable-libmysofa --enable-libopenjpeg --enable-libopenmpt --enable-libopus --enable-libpulse --enable-librsvg --enable-librubberband --enable-libshine --enable-libsnappy --enable-libsoxr --enable-libspeex --enable-libssh --enable-libtheora --enable-libtwolame --enable-libvidstab --enable-libvorbis --enable-libvpx --enable-libwavpack --enable-libwebp --enable-libx265 --enable-libxml2 --enable-libxvid --enable-libzmq --enable-libzvbi --enable-lv2 --enable-omx --enable-openal --enable-opencl --enable-opengl --enable-sdl2 --enable-libdc1394 --enable-libdrm --enable-libiec61883 --enable-nvenc --enable-chromaprint --enable-frei0r --enable-libx264 --enable-shared
  libavutil      56. 31.100 / 56. 31.100
  libavcodec     58. 54.100 / 58. 54.100
  libavformat    58. 29.100 / 58. 29.100
  libavdevice    58.  8.100 / 58.  8.100
  libavfilter     7. 57.100 /  7. 57.100
  libavresample   4.  0.  0 /  4.  0.  0
  libswscale      5.  5.100 /  5.  5.100
  libswresample   3.  5.100 /  3.  5.100
  libpostproc    55.  5.100 / 55.  5.100
[rtsp @ 0x55dd3b126300] Missing PPS in sprop-parameter-sets, ignoring
[rtsp @ 0x55dd3b126300] UDP timeout, retrying with TCP
[rtsp @ 0x55dd3b126300] method PAUSE failed: 551 Option not supported
[rtsp @ 0x55dd3b126300] Could not find codec parameters for stream 0 (Video: h264, none): unspecified size
Consider increasing the value for the 'analyzeduration' and 'probesize' options
Guessed Channel Layout for Input Stream #0.1 : mono
Input #0, rtsp, from 'rtsp://admin:pass@192.168.0.253/ISAPI/Streaming/channels/101':
  Metadata:
    title           : Media Presentation
  Duration: N/A, bitrate: 64 kb/s
    Stream #0:0: Video: h264, none, 90k tbr, 90k tbn, 180k tbc
    Stream #0:1: Audio: pcm_mulaw, 8000 Hz, mono, s16, 64 kb/s
Output #0, flv, to 'rtmp://ec2instanceip/live':
Output file #0 does not contain any stream


    


  • avcodec/mpegvideo : Fix undefined left shift of negative numbers

    28 septembre 2022, par Andreas Rheinhardt
    avcodec/mpegvideo : Fix undefined left shift of negative numbers
    

    Fixes the rv20-1239 FATE-test.

    Reviewed-by : Michael Niedermayer <michael@niedermayer.cc>
    Signed-off-by : Andreas Rheinhardt <andreas.rheinhardt@outlook.com>

    • [DH] libavcodec/mpegvideo.c
  • vsync flag usage in ffmpeg while filtering

    13 octobre 2022, par antortjim

    I am trying to apply a threshold to an input video with ffmpeg, but I observe the following warning emitted for every processed frame

    &#xA;

    [mp4 @ 0x56360181a200] Non-monotonous DTS in output stream 0:0; previous: 182272, current: 182272; changing to 182273. This may result in incorrect timestamps in the output file.&#xA;

    &#xA;

    where the previous and current are always 1 less than the value to which the DTS (Decoding Time Stamp) is changed

    &#xA;

    I have noticed this warning is emitted only if I set -vsync passthrough (which I changed from the original -vsync 0 which is seen in many online examples).

    &#xA;

    # input.mp4 has resolution 790x790&#xA;ffmpeg -vsync passthrough  -i input.mp4  -f lavfi -i color=808080:s=790x790 -f lavfi -i color=black:s=790x790 -f lavfi -i color=white:s=790x790 -filter_complex &#x27;[0:v][1:v][2:v][3:v]threshold&#x27; -an -c:v h264_nvenc threshold.mp4&#xA;

    &#xA;

    Shall I leave the vsync flag set to the default (auto or -1), or is -vsync passthrough essential to guarantee the frames are displayed in the right order ? In that case, how do I handle this warning ? Some other online examples I found of users experiencing this warning are different from mine, because in their case they are concatenating videos (see 1, 2

    &#xA;

    From the documentation on the -vsync flag, at the end, I see :

    &#xA;

    &#xA;

    With -map you can select from which stream the timestamps should be taken. You can leave either video or audio unchanged and sync the remaining stream(s) to the unchanged one

    &#xA;

    &#xA;

    Maybe this warning should be handled with -map ? But I don't know how.

    &#xA;

    Sidenote, I keep getting the deprecation warning asserting me to change -vsync for -fps_mode, however doing so breaks the command.

    &#xA;

    FFPEG Version :

    &#xA;

    commit 28ac2279adb860ea8b90d3073603912bf3eb6a83 from ffmpeg master branch

    &#xA;

    ffmpeg version N-108625-g28ac2279ad Copyright (c) 2000-2022 the FFmpeg developers&#xA;built with gcc 9 (Ubuntu 9.4.0-1ubuntu1~20.04.1)&#xA;configuration: --enable-nonfree --enable-cuda-nvcc --enable-libnpp --enable-gpl --extra-cflags=-I/usr/local/cuda/include --extra-ldflags=-L/usr/local/cuda/lib64 --disable-static --enable-shared&#xA;libavutil      57. 39.101 / 57. 39.101&#xA;libavcodec     59. 50.100 / 59. 50.100&#xA;libavformat    59. 34.101 / 59. 34.101&#xA;libavdevice    59.  8.101 / 59.  8.101&#xA;libavfilter     8. 49.101 /  8. 49.101&#xA;libswscale      6.  8.112 /  6.  8.112&#xA;libswresample   4.  9.100 /  4.  9.100&#xA;libpostproc    56.  7.100 / 56.  7.100&#xA;

    &#xA;

    OS

    &#xA;

    Ubuntu 20.04.4 LTS

    &#xA;