
Recherche avancée
Autres articles (61)
-
Configurer la prise en compte des langues
15 novembre 2010, parAccéder à la configuration et ajouter des langues prises en compte
Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...) -
Des sites réalisés avec MediaSPIP
2 mai 2011, parCette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page. -
Support audio et vidéo HTML5
10 avril 2011MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)
Sur d’autres sites (4764)
-
ffmpeg non-continuous live streaming
2 août 2022, par xrfangI have an IP camera which is normally power off, and is triggered by Infra-Red signal. I plan to use ffmpeg to pull RTSP stream from it, and convert to HLS video segments.


My question is, can ffmpeg work continuously and output blank MPEGTS chunks while it is not able to connect to the camera, i.e. works 7x24, waiting for video data, instead of crash/exit if it cannot connect to the camera.


-
Roadmap #3582 : Simplifier l’utilsation des documents
21 février 2016, par Fil _Il n’est utilisé à ma connaissance que sur visionscarto, donc pas beaucoup de recul ni de retours.
Cela dit ça marche bien et après deux ans et demi avec ce système je le préfère de loin aux gestionnaires de médias de SPIP. (Et je compte l’améliorer encore grâce à l’intégration de github + repo git local.)
Point négatif : j’aurais aimé aller beaucoup plus loin avec, pour publier des documents de tous types, mais cette partie est restée un peu en plan.
Point très positif : la syntaxe des attributs, plus proche du HTML (pas de pipes séparateurs, mais des espaces) que les modèles spip habituels.
Autre point positif : comme la ressource distante est mise en copie locale, même si elle disparaît de la source d’origine le site continue à fonctionner. Et bien sûr la fonctionnalité inverse : on peut travailler offline, copier/coller le texte d’un site de test au site de prod sans avoir à se préoccuper de réuploader les documents, renuméroter etc.
Point qui reste discutable : le fait de mettre l’url de la ressource en premier juste après le chevron. C’est pratique, mais discutable sur le plan des principes. On pourrait avoir une syntaxe longue `
` (c’est ce qui est fait en interne, d’ailleurs). Voire même `` pour retomber sur du HTML si le plugin disparait ou si on copie/colle le code dans un autre site. J’ai très peu testé le raccourci sur des documents locaux `
toto.rtf>` ; à priori c’est pourtant celui-ci qui devrait être d’usage le plus standard avec ce plugin, mais bon, sur visionscarto : 1) toutes les images sont gérées dans notre compte FlickR (et on va basculer sur github) et 2) quand on uploade un doc en local on passe par la médiathèque classique. -
Capture CMOS video with FPGA, encode and send over Ethernet
23 décembre 2015, par ya_urockI am planning a open source university project for my students based on Zynq Xilinx FPGA that will capture CMOS video, encode it into transport stream and send it over Ethernet to remote PC. Basically I want to design yet another IP camera. I have strong FPGA experience, but lack knowledge regarding encoding and transfering video data. Here is my plan :
-
Connect CMOS camera to FPGA, recieve video frames and save them to external DDR memory, verify using HDMI output to monitor. I have no problems with that.
-
I understand that I have to compress my video stream for example to H.264 format and put into transport stream. Here I have little knowledge and require some hints.
-
After I form transport stream I can send it over network using UDP packets. I have working hardware solution that reads data from FIFO and sends it to remote PC as UDP papckets.
-
And finally I plan to receive and play video using ffmpeg library.
ffplay udp://localhost:5678
My question is basically regarding 2 step. How do I convert pixel frames to transport stream ? My options are :
- Use commercial IP, like
Here I doubt that they are free to use and we don’t have much funds.
-
Use open cores like
- http://sourceforge.net/projects/hardh264/ - here core generates only h264 output, but how to encapsulate it into transport stream ?
- I have searched opencores.org but with no success on this topic
- Maybe somebody knows some good open source relevant FPGA projects ?
-
Develop harware encoder by myself using Vivado HLS (C Language). But here is the problem that I don’t know the algorithm. Maybe I could gig ffmpeg or Cisco openh264 library and find there a function that converts raw pixel frames to H.264 format and then puts it into transport stream ? Any help would be appriciated here also.
Also I am worried about format compatibility of stream I might generate inside FPGA and the one expected at host by ffplay utility. Any help, hints, links and books are appriciated !
-