Recherche avancée

Médias (3)

Mot : - Tags -/spip

Autres articles (40)

  • Librairies et binaires spécifiques au traitement vidéo et sonore

    31 janvier 2010, par

    Les logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
    Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
    Binaires complémentaires et facultatifs flvtool2 : (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (4904)

  • Evolution #3229 : Utiliser une méthode standard dès que l’on a besoin d’un module JS

    22 octobre 2014, par cedric -

    Il y a plusieurs problématiques : chargement asynchrone, chargement seulement si besoin, dépendances.
    A voir comment traiter ça complètement et proprement, pas de solution idéale en tête.
    Actuellement ma préférence va pour :
    - si le JS a des chances d’être utilisé sur une majorité de page, insertion dans le head pour qu’il soit minifié, concaténé avec les autres scripts et toujours chargé
    - si le JS sera vraisemblablement utilisé sur une minorité de page, on charge son js via getScript+callback ce qui permet de ne le charger que si besoin, et est compatible chargement async par jQl

    Mais ça ne traite pas tous les problèmes.

  • Anomalie #3386 : Spip derrière Varnish : port non-standard dans l’URL ?

    15 février 2015, par Fil Up

    Mathieu MD a écrit :

    On pourrait forcer, dans la conf Varnish, un entête `X-Forwarded-Port` qui serait parsé directement par Spip.

    trop compliqué à mon avis ; il me semblerait plus simple d’avoir un define pour indiquer à SPIP qu’il peut sauter cette partie du code ; ou bien, pour la liste des ports à ignorer :
    define('_PORTS_STANDARDS', '80,443')

  • Running Background Process using FFMPEG on Google Cloud Run stopping in middle

    7 juillet 2021, par pashaplus

    I have an external bash script that transcodes audio files using FFmpeg and then uploads the files to google cloud storage. I am using the google cloud run platform for this process but the process is stopping in the middle and not getting any clue from the logs. I am using the node js spawn command to execute the bash script

    


        const createHLSVOD = spawn('/bin/bash', [script, file.path, file.destination, contentId, EPPO_MUSIC_HSL_URL, 'Content', speed]);
    createHLSVOD.stdout.on('data', d => console.log(`stdout info: ${d}`));
    createHLSVOD.stderr.on('data', d => console.log(`stderr error: ${d}`));
    createHLSVOD.on('error', d => console.log(`error: ${d}`));
    createHLSVOD.on('close', code => console.log(`child process ended with code ${code}`));


    


    on cloud run beginning the process itself taking a lot of time but in my local machine transcoding and uploading is very fast. after some time transcoding logs are being stopped and no new logs appear. I have no clue what is happening

    


    Google Cloud run logs

    


    so what is happening here ? why it is very slow in the first place and why the process is being stopped in middle without any error

    


    node js script

    


    Transcoding script

    


    Dockerfile