
Recherche avancée
Médias (1)
-
The pirate bay depuis la Belgique
1er avril 2013, par
Mis à jour : Avril 2013
Langue : français
Type : Image
Autres articles (28)
-
Soumettre améliorations et plugins supplémentaires
10 avril 2011Si vous avez développé une nouvelle extension permettant d’ajouter une ou plusieurs fonctionnalités utiles à MediaSPIP, faites le nous savoir et son intégration dans la distribution officielle sera envisagée.
Vous pouvez utiliser la liste de discussion de développement afin de le faire savoir ou demander de l’aide quant à la réalisation de ce plugin. MediaSPIP étant basé sur SPIP, il est également possible d’utiliser le liste de discussion SPIP-zone de SPIP pour (...) -
Ajouter notes et légendes aux images
7 février 2011, parPour pouvoir ajouter notes et légendes aux images, la première étape est d’installer le plugin "Légendes".
Une fois le plugin activé, vous pouvez le configurer dans l’espace de configuration afin de modifier les droits de création / modification et de suppression des notes. Par défaut seuls les administrateurs du site peuvent ajouter des notes aux images.
Modification lors de l’ajout d’un média
Lors de l’ajout d’un média de type "image" un nouveau bouton apparait au dessus de la prévisualisation (...) -
Organiser par catégorie
17 mai 2013, parDans MédiaSPIP, une rubrique a 2 noms : catégorie et rubrique.
Les différents documents stockés dans MédiaSPIP peuvent être rangés dans différentes catégories. On peut créer une catégorie en cliquant sur "publier une catégorie" dans le menu publier en haut à droite ( après authentification ). Une catégorie peut être rangée dans une autre catégorie aussi ce qui fait qu’on peut construire une arborescence de catégories.
Lors de la publication prochaine d’un document, la nouvelle catégorie créée sera proposée (...)
Sur d’autres sites (6542)
-
WebVTT Audio Descriptions for Elephants Dream
10 mars 2015, par silviaWhen I set out to improve accessibility on the Web and we started developing WebSRT – later to be renamed to WebVTT – I needed an example video to demonstrate captions / subtitles, audio descriptions, transcripts, navigation markers and sign language.
I needed a freely available video with spoken text that either already had such data available or that I could create it for. Naturally I chose “Elephants Dream” by the Orange Open Movie Project , because it was created under the Creative Commons Attribution 2.5 license.
As it turned out, the Blender Foundation had already created a collection of SRT files that would represent the English original as well as the translated languages. I was able to reuse them by merely adding a WEBVTT header.
Then there was a need for a textual audio description. I read up on the plot online and finally wrote up a time-alignd audio description. I’m hereby making that file available under the Create Commons Attribution 4.0 license. I’ve added a few lines to the medadata headers so it doesn’t confuse players. Feel free to reuse at will – I know there are others out there that have a similar need to demonstrate accessibility features.
-
mov : Implement parsing of the "HandlerName" from the MP4 HDLR atom
3 février 2015, par Hendrik Leppkesmov : Implement parsing of the "HandlerName" from the MP4 HDLR atom
This atom typically is used for a track title. The handler name is stored
as a Pascal string in the QT specs (first byte is the length of the string),
so do not export it.A second length check based on the first character is added to avoid
overwriting an already specified handler_name (it happens with YouTube
videos for instance, the handler_name get masked), or specifying an
empty string metadata.The Pascal string fix and the second length check are written
by Clément Bœsch <clement.boesch@smartjog.com>.Signed-off-by : Vittorio Giovara <vittorio.giovara@gmail.com>
Signed-off-by : Luca Barbato <lu_zero@gentoo.org> -
FFmpeg Drawtext Function to output Pixel Positions of Rendered Characters ?
13 mai 2019, par user1656125I would like to create a python function that takes a Drawtext function call and outputs the pixel box of each rendered character.
eg.
ffmpeg.drawtext(stream, text='C Illiterate.', fontfile=fontfile, fontcolor='white', fontsize=24, x=0, y=0, escape_text=True)
-->
C[(x,y)(x,y)], [(x,y)(x,y)], I[(x,y)(x,y)], l[(x,y)(x,y)], l[(x,y)(x,y)], i[(x,y)(x,y)], t[(x,y)(x,y)], e[(x,y)(x,y)], r[(x,y)(x,y)], a[(x,y)(x,y)], t[(x,y)(x,y)], e[(x,y)(x,y)], .[(x,y)(x,y)]The function inputs I believe would be :
"max_glyph_a", "ascent", ///< max glyph ascent
"max_glyph_d", "descent", ///< min glyph descent
"max_glyph_h", ///< max glyph height
"max_glyph_w", ///< max glyph width
...
"text_h", "th", ///< height of the rendered text
"text_w", "tw", ///< width of the rendered text
"x",
"y",
...
int use_kerning; ///< font kerning is used - true/falseas specified by file : https://github.com/FFmpeg/FFmpeg/blob/1a31c2b5df1179fdc1b8e84c8fa89d853e517309/libavfilter/vf_drawtext.c
Would you be able to help me construct this function/decipher the inputs. It’s for a machine vision application.