
Recherche avancée
Médias (3)
-
Exemple de boutons d’action pour une collection collaborative
27 février 2013, par
Mis à jour : Mars 2013
Langue : français
Type : Image
-
Exemple de boutons d’action pour une collection personnelle
27 février 2013, par
Mis à jour : Février 2013
Langue : English
Type : Image
-
Collections - Formulaire de création rapide
19 février 2013, par
Mis à jour : Février 2013
Langue : français
Type : Image
Autres articles (66)
-
Le profil des utilisateurs
12 avril 2011, parChaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...) -
Configurer la prise en compte des langues
15 novembre 2010, parAccéder à la configuration et ajouter des langues prises en compte
Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...) -
XMP PHP
13 mai 2011, parDixit Wikipedia, XMP signifie :
Extensible Metadata Platform ou XMP est un format de métadonnées basé sur XML utilisé dans les applications PDF, de photographie et de graphisme. Il a été lancé par Adobe Systems en avril 2001 en étant intégré à la version 5.0 d’Adobe Acrobat.
Étant basé sur XML, il gère un ensemble de tags dynamiques pour l’utilisation dans le cadre du Web sémantique.
XMP permet d’enregistrer sous forme d’un document XML des informations relatives à un fichier : titre, auteur, historique (...)
Sur d’autres sites (5565)
-
Configure NVR to accept video stream from IP camera routed through PC
11 juin 2021, par BenStackoverI currently have an IP camera connected to an ethernet port on my PC. I also have my PC connected to a network switch via another ethernet cable. I have a NVR connected to the same network switch. I would like to be able to access the video stream from the camera (that is connected to the PC) on the NVR. I have tried restreaming the camera feed using ffmpeg and udp :


ffmpeg -i 'rtsp://user:pwd@192.168.xxx.xxx:554' -preset ultrafast -tune zerolatency -codec:v libx264 -f mpegts udp://admin:admin@192.168.yyy.yyy:8090


where the xxx.xxx is my PC and yyy.yyy is the NVR however the NVR cannot connect. If I connect another PC to the same network switch and change yyy.yyy to that PC's IP I can view the stream.


I have also tried setting up ffserver as an rtsp server using ffserver and can view the rtsp stream from the first PC on the second PC using
ffplay rtsp://192.168.xxx.xxx/test1.sdp
on the second PC after launching the server on the first PC. I cannot connect to the same stream from the NVR.

Can anyone tell me if what I am attempting to do is even possible ? Ie. how can I make my NVR see a video stream that isn't directly from an IP camera ?


Any help would be much appreciated.


Thanks !


-
Controlling "Real-Time" sending rate in RTP Streaming with FFMpeg
14 décembre 2020, par Robert_OrdisI'm trying to build an experimental audio telephony system with ffmpeg to talk some G.711 VoIP machine.


Then, I tried this command.


.\ffmpeg.exe -re -f dshow -i audio="CABLE Output (VB-Audio Virtual Cable)" -ac 1 -ab 64k -ar 8000 -f mulaw -f rtp "rtp://192.168.3.175:4449?fifo_size=240&localrtpport=5100&pkt_size=240"



In WireShark capturing, the audio in each packets was actually divided in each around 30[ms].


However, 17- 18 packets was sent together once per 500[ms].


Sent audio was correct, but in this situation, an opponent machine can't treat this correctly.


How do I send these packets in per "UNDER 0.5 SEC" ?


-
How to process remote audio/video stream on WebRTC server in real-time ? [closed]
7 septembre 2020, par Kartik RokdeI'm new to audio/video streaming. I'm using AntMedia Pro for audio/video conferencing. There will be 5-8 hosts who will be speaking and the expected audience size would be 15-20k (need to mention this as it won't be a P2P conferencing, but an MCU architecture).


I want to give a feature where a user can request for "convert voice to female / robot / whatever", which would let the user hear the manipulated voice in the conference.


From what I know is that I want to do a real-time processing on the server to be able to do this. I want to intercept the stream on the server, and do some processing (change the voice) on each of the tracks, and stream it back to the requestor.


The first challenge I'm facing is how to get the stream and/or the individual tracks on the server ?


I did some research on how to process remote WebRTC streams, real-time on the server. I came across some keywords like
RTMP ingestion
,ffmpeg
.

Here are a few questions I went through, but didn't find answers that I'm looking for :


- 

- Receive webRTC video stream using python opencv in real-time
- Extract frames as images from an RTMP stream in real-time
- android stream real time video to streaming server








I need help in receiving real-time stream on the server (any technology - preferable Python, Golang) and streaming it back.