Recherche avancée

Médias (0)

Mot : - Tags -/xmlrpc

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (66)

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

Sur d’autres sites (13133)

  • Broadcast Unity camera to web

    19 juillet 2019, par Nick

    I want to do a test, where I can Live stream the Camera view from a Unity project, to the web. If I understand correctly, I’ll need to use FFMpeg with pipe out, from Unity ? and then then somehow read it from NodeJS and serve/stream it to the web ?? I’m not really sure how to even approach it.

    Any help would be really appreciated.

    Nick

    PS : Assume I’m a total noob in your suggestions please ! hahah

    Edit : I’m total noob when it comes to FFmpeg and which components that how it is expected to be connected. Like, "you need to make unity to do that, and then take that output and blah blah blah", if that makes sense

  • Send 2 different camera feeds to ffserver from ffmpeg

    1er mai 2015, par Niklas Tampier Holmgren

    I’m currently working in a project where I have to stream 2 webcams streams from a computer to another through a TCP connection, I can stream 1 without problem :

    using

    ffserver.conf :

               HTTPPort 8090
               HTTPBindAddress 0.0.0.0
               MaxClients 40
               MaxBandwidth 30000

               CustomLog -
               NoDaemon

               <stream>
               Format status
               ACL allow localhost
               ACL allow 192.168.0.0 192.168.255.255
               </stream>

              #feed for camera 1
              <feed>
              File /tmp/webcam1.ffm
              FileMaxSize 100M
              </feed>

              #feed for camera 2
              <feed>
              File /tmp/webcam2.ffm
              FileMaxSize 100M
              </feed>

             #stream for feed 1
             <stream>
             Feed webcam1.ffm
             Format mjpeg
             VideoSize 1280x720
             VideoFrameRate 30
             Preroll 0
             NoAudio
             Strict -1
             </stream>

             #stream for feed2
             <stream>
             Feed webcam2.ffm
             Format mjpeg
             VideoSize 1280x720
             VideoFrameRate 30
             Preroll 0
             NoAudio
             Strict -1
             </stream>

    command to run ffserver :

             ffserver /etc/ffserver.conf

    command to feed ffserver :

            ffmpeg -v 2 -r 20 -f video4linux2 -i /dev/video0 http://localhost:8090/webcam1.ffm

    and it works perfect, but when I try to run the other feed :

            ffmpeg -v 2 -r 20 -f video4linux2 -i /dev/video1 http://localhost:8090/webcam2.ffm

    I can see just the second stream and the first one do not work anymore.
    some idea ?

  • How to get real time video stream from iphone camera and send it to server ?

    11 juillet 2019, par Ron

    I am using AVCaptureSession to capture video and get real time frame from iPhone camera but how can I send it to server with multiplexing of frame and sound and how to use ffmpeg to complete this task, if any one have any tutorial about ffmpeg or any example please share here.