Recherche avancée

Médias (1)

Mot : - Tags -/intégration

Autres articles (34)

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

  • Personnaliser les catégories

    21 juin 2013, par

    Formulaire de création d’une catégorie
    Pour ceux qui connaissent bien SPIP, une catégorie peut être assimilée à une rubrique.
    Dans le cas d’un document de type catégorie, les champs proposés par défaut sont : Texte
    On peut modifier ce formulaire dans la partie :
    Administration > Configuration des masques de formulaire.
    Dans le cas d’un document de type média, les champs non affichés par défaut sont : Descriptif rapide
    Par ailleurs, c’est dans cette partie configuration qu’on peut indiquer le (...)

  • L’agrémenter visuellement

    10 avril 2011

    MediaSPIP est basé sur un système de thèmes et de squelettes. Les squelettes définissent le placement des informations dans la page, définissant un usage spécifique de la plateforme, et les thèmes l’habillage graphique général.
    Chacun peut proposer un nouveau thème graphique ou un squelette et le mettre à disposition de la communauté.

Sur d’autres sites (7590)

  • ffmpeg generated video with silent audio has different stream lengths

    18 septembre 2015, par JennHarper

    I am trying to generate a video clip of a single image and add a silent audio track for concatenating with other video files.
    I can successfully create the mp4 video with the desired image and audio track BUT, according to mediaInfo, the length of the video stream and the length of the audio stream are different. They are off by up to 60 ms. As I plan to concatenate several of these image clips and other video clips, I don’t want the error to accumulate. Any thoughts or suggestions for maintaining perfect video/audio sync ?

    Here are the ffmpeg commands that I am using :

    C :\FFmpeg\bin\ffmpeg.exe -loop 1 -i myImage.jpg -codec:v libx264 -t 7 -profile:v high -preset slow -r 25 -b:v 500k -maxrate 500k -vf scale=1280:720 -y videoStreamOnly.mp4

    C :\FFmpeg\bin\ffmpeg.exe -f lavfi -i anullsrc=r=48000 -i videoStreamOnly.mp4 -shortest -c:v copy -c:a aac -strict experimental -y videoWithSilentAudioStream.mp4

  • aacenc_pred : rework the way prediction is done

    29 août 2015, par Rostislav Pehlivanov
    aacenc_pred : rework the way prediction is done
    

    This commit completely alters the algorithm of prediction.
    The original commit which introduced prediction was completely
    incorrect to even remotely care about what the actual coefficients
    contain or whether any options were enabled. Not my actual fault.

    This commit treats prediction the way the decoder does and expects
    to do : like lossy encryption. Everything related to prediction now
    happens at the very end but just before quantization and encoding
    of coefficients. On the decoder side, prediction happens before
    anything has had a chance to even access the coefficients.

    Also the original implementation had problems because it actually
    touched the band_type of special bands which already had their
    scalefactor indices marked and it’s a wonder the asserion wasn’t
    triggered when transmitting those.

    Overall, this now drastically increases audio quality and you should
    think about enabling it if you don’t plan on playing anything encoded
    on really old low power ultra-embedded devices since they might not
    support decoding of prediction or AAC-Main. Though the specifications
    were written ages ago and as times change so do the FLOPS.

    Signed-off-by : Rostislav Pehlivanov <atomnuker@gmail.com>

    • [DH] libavcodec/aac.h
    • [DH] libavcodec/aaccoder.c
    • [DH] libavcodec/aacenc.c
    • [DH] libavcodec/aacenc.h
    • [DH] libavcodec/aacenc_pred.c
    • [DH] libavcodec/aacenc_pred.h
  • Encapsulate onvif metadata into avframe

    15 avril 2020, par user8957959

    I have a onvif camera that provides video and metadata via rtsp. I would &#xA;like to create a filter or whatever else that takes the metadata, reads &#xA;them and finally merge into the output video.

    &#xA;&#xA;

    I think of something like &#xA;encapsulate them in the alpha channel, in order to keep the video &#xA;viable. I have problem with the first part, because I cannot find a &#xA;filter that manipulates Data (AVMEDIA_TYPE_DATA) to start with. My plan &#xA;is to create a filter that takes data and produce fake avframe with &#xA;metadata, that will be merged with the real video by a filter like &#xA;overlay or everything else. Did someone have some hints for me ?

    &#xA;