
Recherche avancée
Médias (1)
-
La conservation du net art au musée. Les stratégies à l’œuvre
26 mai 2011
Mis à jour : Juillet 2013
Langue : français
Type : Texte
Autres articles (111)
-
Script d’installation automatique de MediaSPIP
25 avril 2011, parAfin de palier aux difficultés d’installation dues principalement aux dépendances logicielles coté serveur, un script d’installation "tout en un" en bash a été créé afin de faciliter cette étape sur un serveur doté d’une distribution Linux compatible.
Vous devez bénéficier d’un accès SSH à votre serveur et d’un compte "root" afin de l’utiliser, ce qui permettra d’installer les dépendances. Contactez votre hébergeur si vous ne disposez pas de cela.
La documentation de l’utilisation du script d’installation (...) -
Ajouter des informations spécifiques aux utilisateurs et autres modifications de comportement liées aux auteurs
12 avril 2011, parLa manière la plus simple d’ajouter des informations aux auteurs est d’installer le plugin Inscription3. Il permet également de modifier certains comportements liés aux utilisateurs (référez-vous à sa documentation pour plus d’informations).
Il est également possible d’ajouter des champs aux auteurs en installant les plugins champs extras 2 et Interface pour champs extras. -
Que fait exactement ce script ?
18 janvier 2011, parCe script est écrit en bash. Il est donc facilement utilisable sur n’importe quel serveur.
Il n’est compatible qu’avec une liste de distributions précises (voir Liste des distributions compatibles).
Installation de dépendances de MediaSPIP
Son rôle principal est d’installer l’ensemble des dépendances logicielles nécessaires coté serveur à savoir :
Les outils de base pour pouvoir installer le reste des dépendances Les outils de développements : build-essential (via APT depuis les dépôts officiels) ; (...)
Sur d’autres sites (9548)
-
how to name the output file same as input file but different extension after video conversion ? [duplicate]
4 mars 2018, par kofheartsThis question already has an answer here :
I am using this line to batch convert mp4 files to webm files. For all mp4 files i need the output files to be of same name but .webm extension. For example if i have video1.mp4 and video2.mp4 then after conversion i need two files i.e video1.webm and video2.webm. How can i achieve this using bash script ?
for f in *.mp4; do ffmpeg -i "$f" -c:v libvpx -crf 10 -b:v 1M -c:a libvorbis "$f".webm; done
The above code will change the output file to video1.mp4.webm. Thanks !
-
FFMPEG, "Could not open file.. " "av_interleaved_write_frame() : Input/output error"
10 juillet 2018, par justaguytrynabuildawebsiteTrying to run a simple ffmpeg line on my Ubuntu 16.04 vps shell,
ffmpeg -ss 1 -i /var/www/html/lib/vid/4581989_022810100718.mp4 -r 1 -vframes 1 /var/www/html/lib/thumbnail/4581989_022810100718/20.jpg
but am met with
Could not open file
and
av_interleaved_write_frame(): Input/output error
I have already tried giving the ../lib/vid folder in question 777 permissions but it didnt help.
Full print-out :
ffmpeg version 2.8.14-0ubuntu0.16.04.1 Copyright (c) 2000-2018 the FFmpeg developers
built with gcc 5.4.0 (Ubuntu 5.4.0-6ubuntu1~16.04.9) 20160609
configuration: --prefix=/usr --extra-version=0ubuntu0.16.04.1 --build-suffix=-ffmpeg --toolchain=hardened --libdir=/usr/lib/x86_64-linux-gnu --incdir=/usr/include/x86_64-linux-gnu --cc=cc --cxx=g++ --enable-gpl --enable-shared --disable-stripping --disable-decoder=libopenjpeg --disable-decoder=libschroedinger --enable-avresample --enable-avisynth --enable-gnutls --enable-ladspa --enable-libass --enable-libbluray --enable-libbs2b --enable-libcaca --enable-libcdio --enable-libflite --enable-libfontconfig --enable-libfreetype --enable-libfribidi --enable-libgme --enable-libgsm --enable-libmodplug --enable-libmp3lame --enable-libopenjpeg --enable-libopus --enable-libpulse --enable-librtmp --enable-libschroedinger --enable-libshine --enable-libsnappy --enable-libsoxr --enable-libspeex --enable-libssh --enable-libtheora --enable-libtwolame --enable-libvorbis --enable-libvpx --enable-libwavpack --enable-libwebp --enable-libx265 --enable-libxvid --enable-libzvbi --enable-openal --enable-opengl --enable-x11grab --enable-libdc1394 --enable-libiec61883 --enable-libzmq --enable-frei0r --enable-libx264 --enable-libopencv
libavutil 54. 31.100 / 54. 31.100
libavcodec 56. 60.100 / 56. 60.100
libavformat 56. 40.101 / 56. 40.101
libavdevice 56. 4.100 / 56. 4.100
libavfilter 5. 40.101 / 5. 40.101
libavresample 2. 1. 0 / 2. 1. 0
libswscale 3. 1.101 / 3. 1.101
libswresample 1. 2.101 / 1. 2.101
libpostproc 53. 3.100 / 53. 3.100
Input #0, mov,mp4,m4a,3gp,3g2,mj2, from '/var/www/html/lib/vid/4581989_022810100718.mp4':
Metadata:
major_brand : isom
minor_version : 512
compatible_brands: isomiso2avc1mp41
encoder : Lavf56.36.100
Duration: 00:00:04.90, start: 0.000000, bitrate: 2595 kb/s
Stream #0:0(und): Video: h264 (High) (avc1 / 0x31637661), yuv420p, 1820x1024 [SAR 1:1 DAR 455:256], 2593 kb/s, 30 fps, 30 tbr, 15360 tbn, 60 tbc (default)
Metadata:
handler_name : VideoHandler
[swscaler @ 0x1652280] deprecated pixel format used, make sure you did set range correctly
Output #0, image2, to '/var/www/html/lib/thumbnail/4581989_022810100718/20.jpg':
Metadata:
major_brand : isom
minor_version : 512
compatible_brands: isomiso2avc1mp41
encoder : Lavf56.40.101
Stream #0:0(und): Video: mjpeg, yuvj420p(pc), 1820x1024 [SAR 1:1 DAR 455:256], q=2-31, 200 kb/s, 1 fps, 1 tbn, 1 tbc (default)
Metadata:
handler_name : VideoHandler
encoder : Lavc56.60.100 mjpeg
Stream mapping:
Stream #0:0 -> #0:0 (h264 (native) -> mjpeg (native))
Press [q] to stop, [?] for help
[image2 @ 0x16103a0] Could not open file : /var/www/html/lib/thumbnail/4581989_022810100718/20.jpg
av_interleaved_write_frame(): Input/output error
frame= 1 fps=0.0 q=3.4 Lsize=N/A time=00:00:01.00 bitrate=N/A
video:48kB audio:0kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: unknown
Conversion failed! -
Convert input gray16le to RGB output stream
22 novembre 2018, par Albert GarciaI’m reading a v4l2 format input video with pixel format gray16le from a USB camera connected to my computer. I can display it without problems.
My question is that I want to read that video with ffmpeg (on /dev/video0) and stream it to a websocket. If I read a "normal" rgb video, this is the command that I’m using to accomplish it :
ffmpeg -f v4l2 -i /dev/video0 -framerate 9 -c:v mpeg1video -f mpegts https://......
When I try to read from the gray16le format camera, I’ve tried lots of commands but the output is always in grayscale. For example :
ffmpeg -f v4l2 -i /dev/video0 -framerate 9 -pix_fmt yuyv422 -c:v mpeg1video -f mpegts https://......
ffmpeg -f v4l2 -i /dev/video0 -framerate 9 -pix_fmt rgb24 -c:v mpeg1video -f mpegts https://......Is there an option in ffmpeg to apply a colormap or a LUT to the input video before streaming it ?
Thanks !