
Recherche avancée
Médias (2)
-
Exemple de boutons d’action pour une collection collaborative
27 février 2013, par
Mis à jour : Mars 2013
Langue : français
Type : Image
-
Exemple de boutons d’action pour une collection personnelle
27 février 2013, par
Mis à jour : Février 2013
Langue : English
Type : Image
Autres articles (16)
-
Qualité du média après traitement
21 juin 2013, parLe bon réglage du logiciel qui traite les média est important pour un équilibre entre les partis ( bande passante de l’hébergeur, qualité du média pour le rédacteur et le visiteur, accessibilité pour le visiteur ). Comment régler la qualité de son média ?
Plus la qualité du média est importante, plus la bande passante sera utilisée. Le visiteur avec une connexion internet à petit débit devra attendre plus longtemps. Inversement plus, la qualité du média est pauvre et donc le média devient dégradé voire (...) -
Emballe médias : à quoi cela sert ?
4 février 2011, parCe plugin vise à gérer des sites de mise en ligne de documents de tous types.
Il crée des "médias", à savoir : un "média" est un article au sens SPIP créé automatiquement lors du téléversement d’un document qu’il soit audio, vidéo, image ou textuel ; un seul document ne peut être lié à un article dit "média" ; -
Supporting all media types
13 avril 2011, parUnlike most software and media-sharing platforms, MediaSPIP aims to manage as many different media types as possible. The following are just a few examples from an ever-expanding list of supported formats : images : png, gif, jpg, bmp and more audio : MP3, Ogg, Wav and more video : AVI, MP4, OGV, mpg, mov, wmv and more text, code and other data : OpenOffice, Microsoft Office (Word, PowerPoint, Excel), web (html, CSS), LaTeX, Google Earth and (...)
Sur d’autres sites (4884)
-
FFMPEG to remote server : Live streaming with segments [migrated]
10 août 2013, par BrianjsI have looked around and have found many good articles on how to use ffmpeg to segment live video for HLS streaming. However, I need to be able to use use an encoder from a remote location (that is receiving live video), and then somehow send these segmented files and the m3u8/ts files to a web server in a different location, in real time.
So :
REMOTE COMPUTER(camera->ffmpeg->segmenter) -> WEBSERVER(receives files -> users connect for "live" stream)My question is : Has anyone seen something similar to this ? Or is there a setting on ffmpeg/ffserver that will let me do this ?
-
Can we detect whether a live udp stream packet contains a key frame or not ?
12 janvier 2023, par Miuru Shalinda RajapakshaIs there a way to detect whether there is a key frame within a video packet or not ?


What I want do is I want to cut the live udp stream into seperate 30 second .ts files, and then concatenate the files including several other .ts file using ffmpeg and restream to rtmp (youtube). I can achieve this but the only problem I have is after concatenating the files there is drop frame after each 30 seconds, the reason for this is I have cut the live stream without considering the key frames. Therefore what I want is to cut the live stream based on its key frames. Im doing this using python and ffmpeg. Is there a way to detect whether a video packet contains a key frame or not ?


-
Does Facebook multicast or unicast the live videos to its viewers ?
14 avril 2018, par Kamran ZahoorThis is how a live stream goes from one broadcaster to millions of viewers :
- A broadcaster starts a live video on their phone.
- The phone sends a RTMP stream to a Live Stream server.
- The Live Stream server decodes the video and transcodes to multiple bit rates.
- For each bit rate a set of one-second MPEG-DASH segments is continuously produced.
- Segments are stored in a datacenter cache.
- From the datacenter cache segments are sent to caches located in the points of presence (a PoP cache).
- On the view side the viewer receives a Live Story.
- The player on their device starts fetching segments from a PoP cache at a rate of one per second.
My question is simple. After the step 6, does PoP cache/Edge cache/eNB (edge layer node) multicast a live video content to multiple viewers or unicast each user separately (opening up seperate streams for each user) ?