
Recherche avancée
Autres articles (45)
-
Mise à jour de la version 0.1 vers 0.2
24 juin 2013, parExplications des différents changements notables lors du passage de la version 0.1 de MediaSPIP à la version 0.3. Quelles sont les nouveautés
Au niveau des dépendances logicielles Utilisation des dernières versions de FFMpeg (>= v1.2.1) ; Installation des dépendances pour Smush ; Installation de MediaInfo et FFprobe pour la récupération des métadonnées ; On n’utilise plus ffmpeg2theora ; On n’installe plus flvtool2 au profit de flvtool++ ; On n’installe plus ffmpeg-php qui n’est plus maintenu au (...) -
Personnaliser en ajoutant son logo, sa bannière ou son image de fond
5 septembre 2013, parCertains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;
-
Ecrire une actualité
21 juin 2013, parPrésentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
Vous pouvez personnaliser le formulaire de création d’une actualité.
Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...)
Sur d’autres sites (9437)
-
ffmpeg non-continuous live streaming
2 août 2022, par xrfangI have an IP camera which is normally power off, and is triggered by Infra-Red signal. I plan to use ffmpeg to pull RTSP stream from it, and convert to HLS video segments.


My question is, can ffmpeg work continuously and output blank MPEGTS chunks while it is not able to connect to the camera, i.e. works 7x24, waiting for video data, instead of crash/exit if it cannot connect to the camera.


-
Roadmap #3582 : Simplifier l’utilsation des documents
21 février 2016, par Fil _Il n’est utilisé à ma connaissance que sur visionscarto, donc pas beaucoup de recul ni de retours.
Cela dit ça marche bien et après deux ans et demi avec ce système je le préfère de loin aux gestionnaires de médias de SPIP. (Et je compte l’améliorer encore grâce à l’intégration de github + repo git local.)
Point négatif : j’aurais aimé aller beaucoup plus loin avec, pour publier des documents de tous types, mais cette partie est restée un peu en plan.
Point très positif : la syntaxe des attributs, plus proche du HTML (pas de pipes séparateurs, mais des espaces) que les modèles spip habituels.
Autre point positif : comme la ressource distante est mise en copie locale, même si elle disparaît de la source d’origine le site continue à fonctionner. Et bien sûr la fonctionnalité inverse : on peut travailler offline, copier/coller le texte d’un site de test au site de prod sans avoir à se préoccuper de réuploader les documents, renuméroter etc.
Point qui reste discutable : le fait de mettre l’url de la ressource en premier juste après le chevron. C’est pratique, mais discutable sur le plan des principes. On pourrait avoir une syntaxe longue `
` (c’est ce qui est fait en interne, d’ailleurs). Voire même `` pour retomber sur du HTML si le plugin disparait ou si on copie/colle le code dans un autre site. J’ai très peu testé le raccourci sur des documents locaux `
toto.rtf>` ; à priori c’est pourtant celui-ci qui devrait être d’usage le plus standard avec ce plugin, mais bon, sur visionscarto : 1) toutes les images sont gérées dans notre compte FlickR (et on va basculer sur github) et 2) quand on uploade un doc en local on passe par la médiathèque classique. -
Capture CMOS video with FPGA, encode and send over Ethernet
23 décembre 2015, par ya_urockI am planning a open source university project for my students based on Zynq Xilinx FPGA that will capture CMOS video, encode it into transport stream and send it over Ethernet to remote PC. Basically I want to design yet another IP camera. I have strong FPGA experience, but lack knowledge regarding encoding and transfering video data. Here is my plan :
-
Connect CMOS camera to FPGA, recieve video frames and save them to external DDR memory, verify using HDMI output to monitor. I have no problems with that.
-
I understand that I have to compress my video stream for example to H.264 format and put into transport stream. Here I have little knowledge and require some hints.
-
After I form transport stream I can send it over network using UDP packets. I have working hardware solution that reads data from FIFO and sends it to remote PC as UDP papckets.
-
And finally I plan to receive and play video using ffmpeg library.
ffplay udp://localhost:5678
My question is basically regarding 2 step. How do I convert pixel frames to transport stream ? My options are :
- Use commercial IP, like
Here I doubt that they are free to use and we don’t have much funds.
-
Use open cores like
- http://sourceforge.net/projects/hardh264/ - here core generates only h264 output, but how to encapsulate it into transport stream ?
- I have searched opencores.org but with no success on this topic
- Maybe somebody knows some good open source relevant FPGA projects ?
-
Develop harware encoder by myself using Vivado HLS (C Language). But here is the problem that I don’t know the algorithm. Maybe I could gig ffmpeg or Cisco openh264 library and find there a function that converts raw pixel frames to H.264 format and then puts it into transport stream ? Any help would be appriciated here also.
Also I am worried about format compatibility of stream I might generate inside FPGA and the one expected at host by ffplay utility. Any help, hints, links and books are appriciated !
-