Recherche avancée

Médias (0)

Mot : - Tags -/latitude

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (53)

  • Mise à jour de la version 0.1 vers 0.2

    24 juin 2013, par

    Explications des différents changements notables lors du passage de la version 0.1 de MediaSPIP à la version 0.3. Quelles sont les nouveautés
    Au niveau des dépendances logicielles Utilisation des dernières versions de FFMpeg (>= v1.2.1) ; Installation des dépendances pour Smush ; Installation de MediaInfo et FFprobe pour la récupération des métadonnées ; On n’utilise plus ffmpeg2theora ; On n’installe plus flvtool2 au profit de flvtool++ ; On n’installe plus ffmpeg-php qui n’est plus maintenu au (...)

  • Personnaliser en ajoutant son logo, sa bannière ou son image de fond

    5 septembre 2013, par

    Certains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;

  • Ecrire une actualité

    21 juin 2013, par

    Présentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
    Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
    Vous pouvez personnaliser le formulaire de création d’une actualité.
    Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...)

Sur d’autres sites (11978)

  • mpeg12enc : Correctly mask dimensions

    7 janvier 2013, par Michael Niedermayer

    mpeg12enc : Correctly mask dimensions

  • FFmpeg : Add alpha channel to a video using a PNG mask

    7 avril 2016, par Rodrigo Polo

    I saw that FFmpeg can merge/blend two videos with alpha channel and can encode video with alpha channel using the qtrle codec, but, It is possible to apply a PNG file mask, either a black and white or a PNG with an alpha channel to a video in order to have a video with the alpha channel of the PNG applied ?

    Here is the concept in images

    Original video :
    Original video

    PNG file with alpha channel, the "mask" :
    PNG file with alpha channel

    And the result :
    Result

    Or even a black and white image as a mask for alpha channel :
    bnw image

    Any help would be appreciated, thank you !

  • Video players questions

    31 mai 2015, par yayuj

    Given that FFmpeg is the leading multimedia framework and most of the video/audio players uses it, I’m wondering somethings about audio/video players using FFmpeg as intermediate.

    I’m studying and I want to know how audio/video players works and I have some questions.

    I was reading the ffplay source code and I saw that ffplay handles the subtitle stream. I tried to use a mkv file with a subtitle on it and doesn’t work. I tried using arguments such as -sst but nothing happened. - I was reading about subtitles and how video files uses it (or may I say containers ?). I saw that there’s two ways putting a subtitle : hardsubs and softsubs - roughly speaking hardsubs mode is burned and becomes part of the video, and softsubs turns a stream of subtitles (I might be wrong - please, correct me).

    • The question is : How does they handle this ? I mean, when the subtitle is part of the video there’s nothing to do, the video stream itself shows the subtitle, but what about the softsubs ? how are they handled ? (I heard something about text subs as well). - How does the subtitle appears on the screen and can be configured changing fonts, size, colors, without encoding everything again ?

    • I was studying some video players source codes and some or most of them uses OpenGL as renderer of the frame and others uses (such as Qt’s QWidget) (kind of or for sure) canvas. - What is the most used and which one is fastest and better ? OpenGL with shaders and stuffs ? Handling YUV or RGB and so on ? How does that work ?

    • It might be a dump question but what is the format that AVFrame returns ? For example, when we want to save frames as images first we need the frame and then we convert, from which format we are converting from ? Does it change according with the video codec or it’s always the same ?

    • Most of the videos I’ve been trying to handle is using YUV720P, I tried to save the frames as png and I need to convert to RGB first. I did a test with the players and I put at the same frame and I took also screenshots and compared. The video players shows the frames more colorful. I tried the same with ffplay that uses SDL (OpenGL) and the colors (quality) of the frames seems to be really low. What might be ? What they do ? Is it shaders (or a kind of magic ? haha).

    Well, I think that is it for now. I hope you help me with that.

    If this isn’t the correct place, please let me know where. I haven’t found another place in Stack Exchange communities.