
Recherche avancée
Autres articles (66)
-
Participer à sa traduction
10 avril 2011Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
Actuellement MediaSPIP n’est disponible qu’en français et (...) -
Multilang : améliorer l’interface pour les blocs multilingues
18 février 2011, parMultilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela. -
Les autorisations surchargées par les plugins
27 avril 2010, parMediaspip core
autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs
Sur d’autres sites (13133)
-
Broadcast Unity camera to web
19 juillet 2019, par NickI want to do a test, where I can Live stream the Camera view from a Unity project, to the web. If I understand correctly, I’ll need to use FFMpeg with pipe out, from Unity ? and then then somehow read it from NodeJS and serve/stream it to the web ?? I’m not really sure how to even approach it.
Any help would be really appreciated.
Nick
PS : Assume I’m a total noob in your suggestions please ! hahah
Edit : I’m total noob when it comes to FFmpeg and which components that how it is expected to be connected. Like, "you need to make unity to do that, and then take that output and blah blah blah", if that makes sense
-
Send 2 different camera feeds to ffserver from ffmpeg
1er mai 2015, par Niklas Tampier HolmgrenI’m currently working in a project where I have to stream 2 webcams streams from a computer to another through a TCP connection, I can stream 1 without problem :
using
ffserver.conf :
HTTPPort 8090
HTTPBindAddress 0.0.0.0
MaxClients 40
MaxBandwidth 30000
CustomLog -
NoDaemon
<stream>
Format status
ACL allow localhost
ACL allow 192.168.0.0 192.168.255.255
</stream>
#feed for camera 1
<feed>
File /tmp/webcam1.ffm
FileMaxSize 100M
</feed>
#feed for camera 2
<feed>
File /tmp/webcam2.ffm
FileMaxSize 100M
</feed>
#stream for feed 1
<stream>
Feed webcam1.ffm
Format mjpeg
VideoSize 1280x720
VideoFrameRate 30
Preroll 0
NoAudio
Strict -1
</stream>
#stream for feed2
<stream>
Feed webcam2.ffm
Format mjpeg
VideoSize 1280x720
VideoFrameRate 30
Preroll 0
NoAudio
Strict -1
</stream>command to run ffserver :
ffserver /etc/ffserver.conf
command to feed ffserver :
ffmpeg -v 2 -r 20 -f video4linux2 -i /dev/video0 http://localhost:8090/webcam1.ffm
and it works perfect, but when I try to run the other feed :
ffmpeg -v 2 -r 20 -f video4linux2 -i /dev/video1 http://localhost:8090/webcam2.ffm
I can see just the second stream and the first one do not work anymore.
some idea ? -
How to get real time video stream from iphone camera and send it to server ?
11 juillet 2019, par RonI am using
AVCaptureSession
to capture video and get real time frame from iPhone camera but how can I send it to server with multiplexing of frame and sound and how to use ffmpeg to complete this task, if any one have any tutorial about ffmpeg or any example please share here.