Recherche avancée

Médias (21)

Mot : - Tags -/Nine Inch Nails

Autres articles (96)

  • Encodage et transformation en formats lisibles sur Internet

    10 avril 2011

    MediaSPIP transforme et ré-encode les documents mis en ligne afin de les rendre lisibles sur Internet et automatiquement utilisables sans intervention du créateur de contenu.
    Les vidéos sont automatiquement encodées dans les formats supportés par HTML5 : MP4, Ogv et WebM. La version "MP4" est également utilisée pour le lecteur flash de secours nécessaire aux anciens navigateurs.
    Les documents audios sont également ré-encodés dans les deux formats utilisables par HTML5 :MP3 et Ogg. La version "MP3" (...)

  • MediaSPIP Init et Diogène : types de publications de MediaSPIP

    11 novembre 2010, par

    À l’installation d’un site MediaSPIP, le plugin MediaSPIP Init réalise certaines opérations dont la principale consiste à créer quatre rubriques principales dans le site et de créer cinq templates de formulaire pour Diogène.
    Ces quatre rubriques principales (aussi appelées secteurs) sont : Medias ; Sites ; Editos ; Actualités ;
    Pour chacune de ces rubriques est créé un template de formulaire spécifique éponyme. Pour la rubrique "Medias" un second template "catégorie" est créé permettant d’ajouter (...)

  • Dépôt de média et thèmes par FTP

    31 mai 2013, par

    L’outil MédiaSPIP traite aussi les média transférés par la voie FTP. Si vous préférez déposer par cette voie, récupérez les identifiants d’accès vers votre site MédiaSPIP et utilisez votre client FTP favori.
    Vous trouverez dès le départ les dossiers suivants dans votre espace FTP : config/ : dossier de configuration du site IMG/ : dossier des média déjà traités et en ligne sur le site local/ : répertoire cache du site web themes/ : les thèmes ou les feuilles de style personnalisées tmp/ : dossier de travail (...)

Sur d’autres sites (9682)

  • ffmpeg output file smaller than input file

    3 mai 2020, par Debug255

    I am using ffmpeg to rotate videos 90 or 180 degrees in a Python script. It works great. But, I am curious as to why the output file would be a smaller amount of bytes than the input file.

    



    Here are the commands I use :

    



    180 degrees :

    



    ffmpeg -i ./input.mp4 -preset veryslow -vf "transpose=2,transpose=2,format=yuv420p" -metadata:s:v rotate=0 -codec:v libx264 -codec:a copy ./output.mp4

    



    90 degrees :

    



    ffmpeg -i ./input.mp4 -vf "transpose=2" ./output.mp4

    



    For example, a GoPro Hero 3 MP4 file was originally 2.0 GB. The resulting output file was 480.9 MB. Another GoPro file was 2.0 and its resulting file was 671.5 MB. Is this maybe because the GoPro files were 2.0 but contains empty space, sort of like how some NTFS filesystems make a minimal 4k file, even when there is less bytes in it ?

    



    If this isn't the GoPro Hero 3, how do I rotate the files 90 or 180 degrees but ensure the output file size is the same ? Or, is data loss expected ? Does the data loss have to do with the format ?

    



    Note that the quality of the video doesn't appear to be damaged, which is good. So, I am interested in learning more about why this is happening, then I can read the section of ffmpeg documentation that is relevant to this.

    



    Thank you !

    


  • How to stream the video from one PC to another with an acceptable quality and synchronization ?

    15 juin 2021, par ErickSkrauch

    I have the following task : to organize the broadcast of several gamers on the director's computer, which will switch the image to, to put it simply, the one who currently has more interesting gameplay.

    


    The obvious solution would be to raise an RTMP server and broadcast to it. We tried that. The image quality clearly correlates with the bitrate of the broadcast, but the streams aren't synchronized and there is no way to synchronize them. As far as I know, it's just not built into the RTMP protocol.

    


    We also tried streaming via UDP, SRT and RTSP protocols. We got minimal delay but a very blurry image and artifacts from lost packets. It feels like all these formats are trying to achieve constant FPS and sacrifice the quality.

    


    What we need :

    


      

    • A quality image.
    • 


    • Broken frames can be discarded (it's okay to have not constant FPS).
    • 


    • Latency isn't important.
    • 


    • The streams should be synchronized within a second or two.
    • 


    


    There is an assumption that broadcasting on UDP should be a solution, but some kind of intermediate buffer is needed to provide the necessary broadcasting conditions. But I don't know how to do that. I assume that we need an intermediate ffmpeg instance, which will read the incoming stream, buffer it and publish the result to some local port, from which the picture will be already taken by the director's OBS.

    


    Is there any solution to achieve our goals ?

    


  • ppc : reduce overreads when loading 8 pixels in altivec dsp functions

    13 février 2014, par Janne Grunau
    ppc : reduce overreads when loading 8 pixels in altivec dsp functions
    

    Altivec can only load naturally aligned vectors. To handle possibly
    unaligned data a second vector is loaded from an offset of the original
    location and the data is recovered through a vector permutation.
    Overreads are minimal if the offset for second load points to the last
    element of data. This is 7 for loading eight 8-bit pixels and overreads
    are reduced from 16 bytes to 8 bytes if the pixels are 64-bit aligned.
    For unaligned pixels the overread is reduced from 23 bytes to 15 bytes
    in the worst case.

    • [DH] libavcodec/ppc/dsputil_altivec.c