Recherche avancée

Médias (39)

Mot : - Tags -/audio

Autres articles (54)

  • Qu’est ce qu’un masque de formulaire

    13 juin 2013, par

    Un masque de formulaire consiste en la personnalisation du formulaire de mise en ligne des médias, rubriques, actualités, éditoriaux et liens vers des sites.
    Chaque formulaire de publication d’objet peut donc être personnalisé.
    Pour accéder à la personnalisation des champs de formulaires, il est nécessaire d’aller dans l’administration de votre MediaSPIP puis de sélectionner "Configuration des masques de formulaires".
    Sélectionnez ensuite le formulaire à modifier en cliquant sur sont type d’objet. (...)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 is the first MediaSPIP stable release.
    Its official release date is June 21, 2013 and is announced here.
    The zip file provided here only contains the sources of MediaSPIP in its standalone version.
    To get a working installation, you must manually install all-software dependencies on the server.
    If you want to use this archive for an installation in "farm mode", you will also need to proceed to other manual (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

Sur d’autres sites (6969)

  • can't read mp4 in opencv3.2 (ubuntu, python3)

    28 mars 2017, par lhk

    I’ve ran into a problem with my opencv installation, it is unable to open an mp4 video. My system is ubuntu 16.04, 64bit, opencv3.2 used from python 3.5.

    VideoCapture.read returns False and None.

    There are other questions with this problem, but they target different platforms or different opencv versions.

    Apparently, I’m missing the proper codec.
    So I ran make uninstall from my build directory, purged opencv* with apt and built from source again. This time making sure that ffmpeg was installed before the compilation.

    Here are my steps :

    • clone opencv and opencv_contrib
    • cd opencv/
    • mkdir build
    • cd build
    • cmake -D CMAKE_BUILD_TYPE=RELEASE     -D CMAKE_INSTALL_PREFIX=/usr/local     -D INSTALL_PYTHON_EXAMPLES=ON     -D INSTALL_C_EXAMPLES=OFF     -D OPENCV_EXTRA_MODULES_PATH=../../opencv_contrib/modules     -D BUILD_EXAMPLES=ON ..
    • make -j 8
    • sudo make install

    I checked the output of cmake, ffmpeg is there :

    Video I/O:
    --     DC1394 1.x:                  NO
    --     DC1394 2.x:                  NO
    --     FFMPEG:                      YES
    --       avcodec:                   YES (ver 56.60.100)
    --       avformat:                  YES (ver 56.40.101)
    --       avutil:                    YES (ver 54.31.100)
    --       swscale:                   YES (ver 3.1.101)
    --       avresample:                NO
    --     GStreamer:                   NO
    --     OpenNI:                      NO
    --     OpenNI PrimeSensor Modules:  NO
    --     OpenNI2:                     NO
    --     PvAPI:                       NO
    --     GigEVisionSDK:               NO
    --     Aravis SDK:                  NO
    --     UniCap:                      NO
    --     UniCap ucil:                 NO
    --     V4L/V4L2:                    NO/YES
    --     XIMEA:                       NO
    --     Xine:                        NO
    --     gPhoto2:                     NO

    But the problem persists. How can I fix this ?

    UPDATE

    I had to manually remove some .so files from /usr/local.

    Then I installed all avi related codecs I could find.
    https://wiki.ubuntuusers.de/Codecs/
    plus libavcodec-extra and ffmpeg

    Then I recompiled and now it works.

  • Merge pull request #3419 from matthewrhoden1/master

    24 février 2016, par blueimp
    Merge pull request #3419 from matthewrhoden1/master
    

    Wiki Update

  • send point to point video stream using ffmpeg with rtsp (c++)

    8 décembre 2015, par seleciii44

    I need to send a h264 encoded video stream to a(only one) specific IP address with RTSP protocol on a windows PC with C++. I’m trying to use the FFMPEG library.

    I used the example in this post and i can play the stream as :

    ffplay -rtsp_flags listen -i rtsp://127.0.0.1:8554/live.sdp

    The problem is, according to the solution of post i need a server. Where -rtsp_flags listen option of ffplay behaves like a server.

    On the other hand, according to StreamingGuide of ffmpeg i can send a point to point stream like :

    ffmpeg -i INPUT -acodec libmp3lame -ar 11025 --f rtp rtp://host:port

    This is fine and works well. But i need to use rtsp. According to StreamingGuide again,

    Another option is to use RTP (which by default uses UDP) but by
    specifying it use TCP :

    ffmpeg -i input -f rtsp -rtsp_transport tcp rtsp://localhost:8888/live.sdp

    which seems to be what i’m looking for. Yet the ffmpeg tool seems to be doing nothing when i try this method (don’t know why i need tcp,but udp does not work neither). Why is that ?

    FFMPEG protocols documentation, says that i need to use a media server to send the video.

    • Why would i need a media server to just send the video stream to another PC or whatever ?
    • If i need a media server, how does the IP Camera sends the stream ?
    • If i have no option but to use a media server, could some one please recommend a server for Windows 7 ?
      • ffserver is only for linux
      • live555mediaServer seems to be used for local files or am i wrong ?
      • ..?

    Best regards,
    Gokhan.