
Recherche avancée
Médias (1)
-
Publier une image simplement
13 avril 2011, par ,
Mis à jour : Février 2012
Langue : français
Type : Video
Autres articles (75)
-
Gestion des droits de création et d’édition des objets
8 février 2011, parPar défaut, beaucoup de fonctionnalités sont limitées aux administrateurs mais restent configurables indépendamment pour modifier leur statut minimal d’utilisation notamment : la rédaction de contenus sur le site modifiables dans la gestion des templates de formulaires ; l’ajout de notes aux articles ; l’ajout de légendes et d’annotations sur les images ;
-
Dépôt de média et thèmes par FTP
31 mai 2013, parL’outil MédiaSPIP traite aussi les média transférés par la voie FTP. Si vous préférez déposer par cette voie, récupérez les identifiants d’accès vers votre site MédiaSPIP et utilisez votre client FTP favori.
Vous trouverez dès le départ les dossiers suivants dans votre espace FTP : config/ : dossier de configuration du site IMG/ : dossier des média déjà traités et en ligne sur le site local/ : répertoire cache du site web themes/ : les thèmes ou les feuilles de style personnalisées tmp/ : dossier de travail (...) -
Qualité du média après traitement
21 juin 2013, parLe bon réglage du logiciel qui traite les média est important pour un équilibre entre les partis ( bande passante de l’hébergeur, qualité du média pour le rédacteur et le visiteur, accessibilité pour le visiteur ). Comment régler la qualité de son média ?
Plus la qualité du média est importante, plus la bande passante sera utilisée. Le visiteur avec une connexion internet à petit débit devra attendre plus longtemps. Inversement plus, la qualité du média est pauvre et donc le média devient dégradé voire (...)
Sur d’autres sites (9812)
-
ffmpeg lib/API to cut videos in java
23 janvier 2017, par João Paulo RaddI’m trying to use some FFmpeg’s lib/API to java to cut a video in several parts by time. I know that I can use RunTime with a command to this, but in my case I need use this in code using some API/lib.
Example command in terminal / runtime :ffmpeg -i /tmp/test.mp4 -ss 30 -c copy -to 40 /tmp/outTest.mp4
String url_str = "ffmpeg -i /tmp/"+fileName+".mp4 -ss "+secStart+" -c copy -to "+secEnd+" /tmp/"+outfile+".mp4 -y";
System.out.println("url_str :"+url_str);
try {
Runtime rt = Runtime.getRuntime();
Process p = rt.exec(url_str);
BufferedReader r = new BufferedReader(new InputStreamReader(p.getErrorStream()));
String s;
while ((s = r.readLine()) != null) {
//System.out.println(s); terminal response
}
r.close();Thus, I’ve a original video and a inicial time in seconds and a final time (some cases, optional) and create a new video with this part.
I’m trying to use the FFmpeg Java by Andrew Brampton (net.bramp.ffmpeg) to do the same thing as the example. But, if some one know by other API/lib, like FFMPEG-Java (net.sf.ffmpeg_java) for example, will be good too. -
Bash, Relative Paths, and Mac Automator Fails
30 septembre 2015, par grahamaThis script works great in the terminal but fails when I run the shell script in automator (mac). For some reason, automator doesn’t remember the gif’s name and writes the file as *.gif. When run directly in Terminal, the script correctly converts to movie file to Gif and moves it to the correct Dropbox location.
I’m trying to run this automator Mov2Gif script when Apple Motion 5 finishes rendering a movie.Any help is appreciated. Automator is a little touchy.
#!/bin/sh
fps=8
scale=400
palette="/tmp/palette.png"
filters="fps=$fps,scale=$scale:-1:flags=lanczos"
destDIR="/PATH/TO/DROPBOX/DIR"
curDIR=$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )
incomingDIR=$curDIR/_incoming
ffmpeg=$curDIR/ffmpeg/ffmpeg
for f in *.mov
do
fbname=$(basename "$f" .mov)
fbAbsPath=$incomingDIR/$fbname
$ffmpeg -v warning -i $fbAbsPath.mov -vf "$filters,palettegen" -y $palette
$ffmpeg -v warning -i $fbAbsPath.mov -i $palette -lavfi "$filters [x]; [x][1:v] paletteuse" -y $fbAbsPath.gif
rm $fbAbsPath.mov
mv -f $fbAbsPath.gif $destDIR/$fbname.gif
done -
Overlying video frames using FFmpeg in c++
14 mai 2020, par BruceI am trying to overlaying two videos using FFmpeg in c++. So I followed the FFmpeg page and followed this command in terminal.



$ ffmpeg -i Right.mov -i Left.mov -filter_complex "[0:v][1:v] overlay=0:0" -c:a copy output.mov




I can implement this functionality through the terminal, but I am trying to achieve this functionality through codding.



typedef struct {
 AVFormatContext *fmt_ctx;
 int stream_idx;
 AVRational time_base;
 AVStream *video_stream;
 AVCodecContext *codec_ctx;
 AVCodecContext *pCodecCtxOrig;
 AVCodec *decoder;
 AVPacket *packet;
 AVFrame *av_frame;
 AVFrame *gl_frame;
 AVFrame *out_frame;
 AVStream *pStream;
 struct SwsContext *conv_ctx;




also, I show some example code, but I am not sure about it



https://ffmpeg.org/doxygen/2.1/doc_2examples_2filtering_video_8c-example.html



and 
https://code5.cn/so/c%2B%2B/2601062



AVFilterContext *buffersink_ctx;
AVFilterContext *buffersrc_ctx;
AVFilterGraph *filter_graph;




how can I implement this functionality in my code ?