Recherche avancée

Médias (91)

Autres articles (68)

  • Ajouter notes et légendes aux images

    7 février 2011, par

    Pour pouvoir ajouter notes et légendes aux images, la première étape est d’installer le plugin "Légendes".
    Une fois le plugin activé, vous pouvez le configurer dans l’espace de configuration afin de modifier les droits de création / modification et de suppression des notes. Par défaut seuls les administrateurs du site peuvent ajouter des notes aux images.
    Modification lors de l’ajout d’un média
    Lors de l’ajout d’un média de type "image" un nouveau bouton apparait au dessus de la prévisualisation (...)

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • Configurer la prise en compte des langues

    15 novembre 2010, par

    Accéder à la configuration et ajouter des langues prises en compte
    Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
    De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
    Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)

Sur d’autres sites (6885)

  • FFmpeg drawtext filter - is it possible to use variables with live data for x,y coordinates ?

    3 mai 2019, par DavidK

    I’d like to use variables for FFmpeg’s drawtext filter’s x,y coordinates so I can feed them with real-time data. The below solution with sendcmd works but I have to add relative timecodes at the beginnings so FFmpeg can link coordinates to time positions. Can it be done without timecodes with only the actual coordinates and tell FFmpeg that it should update these coordinates every 100ms ?

    It would look like this in my case :

    cmd.txt

    drawtext reinit ’x=960:y=540’ ; (coordinates change when there’s a new position from the live source and FFmpeg updates these via sendcmd regularly).

    Thanks !

  • How to use ffmpeg for live streaming fragmented mp4 ?

    2 mai 2018, par Cross_

    Following a variety of stackoverflow suggestions I am able to create a fragmented MP4 file, then slice it into the header part (FTYP & MOOV) and various segment files (each containing MOOF & MDAT). Using Media Source Extensions I download and add the individual segments - that’s all working great.

    Now I would like to create a live streaming webcam with that same approach. I had hoped that I could just send the MOOV box to each new client plus the currently streaming segment. This however is rejected as invalid data in the browser. I have to start with the first segment and they have to be appended in order. That’s not helpful for a live streaming scenario where you don’t want to see the whole stream from the start. Is there any way to alter the files so that the segments are truly independent and you can start playback from the middle ?

    For reference, this is how I am setting up the stream on the OS X server :

    $ ffmpeg -y -hide_banner -f avfoundation -r 30 -s 1280x720
    -pixel_format yuyv422 -i default -an -c:v libx264 -profile:v main -level 3.2 -preset medium -tune zerolatency -flags +cgop+low_delay -movflags empty_moov+omit_tfhd_offset+frag_keyframe+default_base_moof+isml
    -pix_fmt yuv420p | split_into_segments.py

    Playback is done with a slightly modified version of this sample code :
    https://github.com/bitmovin/mse-demo/blob/master/index.html

  • live-streaming media with

    8 février 2012, par Thanh Hoang

    My live-streaming system streams media in following step :

    1. Server loads source (from a file, webcam,...)
    2. Server decodes this source by using ffmpeg to get audio and video stream in raw format
    3. Server encodes audio and video to aac and libx264 and then stores them with [AVPacket] (http://ffmpeg.org/doxygen/0.6/avpacket_8c.html)
    4. Then server transmits these packets to client
    5. Client receive these packets, then calculates pts and dts and then display them using libsdl. (following this [tutorial] (http://dranger.com/ffmpeg/tutorial01.html).

    And now, I want to change in client. I want when client receive audio and video packets, It will stream them under http stream, rtp stream or somethings like those to a player such as windows media player, flash player.... Anyone can helps me ? Thanks a lot. :)