Recherche avancée

Médias (2)

Mot : - Tags -/media

Autres articles (84)

  • La file d’attente de SPIPmotion

    28 novembre 2010, par

    Une file d’attente stockée dans la base de donnée
    Lors de son installation, SPIPmotion crée une nouvelle table dans la base de donnée intitulée spip_spipmotion_attentes.
    Cette nouvelle table est constituée des champs suivants : id_spipmotion_attente, l’identifiant numérique unique de la tâche à traiter ; id_document, l’identifiant numérique du document original à encoder ; id_objet l’identifiant unique de l’objet auquel le document encodé devra être attaché automatiquement ; objet, le type d’objet auquel (...)

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • Gestion des droits de création et d’édition des objets

    8 février 2011, par

    Par défaut, beaucoup de fonctionnalités sont limitées aux administrateurs mais restent configurables indépendamment pour modifier leur statut minimal d’utilisation notamment : la rédaction de contenus sur le site modifiables dans la gestion des templates de formulaires ; l’ajout de notes aux articles ; l’ajout de légendes et d’annotations sur les images ;

Sur d’autres sites (8907)

  • Is this generated in Adobe Premier or After Effects ? [closed]

    13 avril 2021, par Ryan

    Can someone please tell me if this JSON file is or can be exported using after effects or premier pro ? I really cant figure this out. This is a JSON file which becomes a part of a template file which is used to render a .mp4 using FFMPEG Lib in an android app.

    


    JSON CODE

    


  • Why are the colors transposed in my webm thumbnails ?

    9 décembre 2022, par Peter Chaplin

    I have been using ffmpeg to generate webm files from png frames, and the webm files run ok in my video player, but the thumbnail colours appear transposed - blue replacing red, purple replacing orange, brown replacing green. I've also encountered issue uploading the webm to an image hosting site (which normally does support webms), though this might be an issue on their end.
I'm on Ubuntu 22.04.1 LTS

    


    Does anyone know what might be causing this, and how to fix it ? Or how to check whether the webm files are ok or corrupted ?

    


    *Edit : ok, here's a side-by-side comparison of the thumbnails that appear in my file explorer - mp4 on the left and webm on the right.
Both were generated from the same set of pngs, using the same command except with the filename extension changed.

    


    screencap of thumbnails

    


    Specifically,

    


    ffmpeg -framerate 24 -i Panel2Humanized/frame%04d.png panel2humanskin.webm


    


    and

    


    ffmpeg -framerate 24 -i Panel2Humanized/frame%04d.png panel2humanskin.mp4


    


    Both look the same when opened with a video player. It looks like the mp4 thumbnail grabbed the 1st frame while the webm grabbed the last, but the colors should be the same in each. (The text-bubble in the top-left is yellow in the mp4).

    


    *Follow-up : Apparently my WebMs are being generated in GBRP (Green-Blue-Red Planar) pixel format, the site I was trying to upload to requires YUV420P (Luma/Chroma 4:2:0 Planar) format, maybe that's the issue ? I'm still not sure exactly what that means or how to fix it.

    


    *Final follow-up : Looks like I needed to change the argument to :

    


    ffmpeg -framerate 24 -i Panel2Humanized/frame%04d.png -pix_fmt yuv420p paned2humanskin.webm


    


  • Audio offset get wrong after some time when streaming audios

    7 septembre 2024, par Antoine Grenard

    I use microsoft-cognitiveservices-speech-sdk (1.38.0) in order to do real time speech to text.
It seems like the offset is right when I send a full audio but it is wrong when I send it cut in a lot of audio chunks.

    


    The more there is audio chunks the more inaccurate the offset is :

    


      

    • No chunks : 1 726 300 000
    • 


    • 369 chunks of 0.5 seconds : 1 729 600 000
    • 


    • 923 chunks of 0.2 seconds : 1 744 600 000
    • 


    • 1443 chunks of 0.1 seconds : 1 757 900 000
    • 


    


    To reproduce here is some piece of code :

    


        const speechConfig = SpeechConfig.fromSubscription(<key>,  {console.log(event)}&#xA;    speechRecognizer.canceled = async (recognizer, event) => {console.log(event)}&#xA;    speechRecognizer.startContinuousRecognitionAsync();&#xA;&#xA;    for (let i = 1; i &lt;= 1443; i&#x2B;&#x2B;) {&#xA;      const formattedNumber = i.toString().padStart(4, &#x27;0&#x27;);&#xA;      const buffer = fs.readFileSync(`/var/tmp/chunks/output_${formattedNumber}.wav`);&#xA;      pushStream.write(buffer);&#xA;    }&#xA;</key>

    &#xA;

    To create the audio chunks :

    &#xA;

    ffmpeg -i  -f segment -segment_time 0.1 -c copy output_%04d.wav&#xA;

    &#xA;

    Here is the audio link : https://drive.google.com/file/d/1H_RJuqMiBaVkpo9XHrgp1bpuFdgQl64O/view?usp=sharing

    &#xA;

    Thanks for your help

    &#xA;