
Recherche avancée
Autres articles (109)
-
Mise à jour de la version 0.1 vers 0.2
24 juin 2013, parExplications des différents changements notables lors du passage de la version 0.1 de MediaSPIP à la version 0.3. Quelles sont les nouveautés
Au niveau des dépendances logicielles Utilisation des dernières versions de FFMpeg (>= v1.2.1) ; Installation des dépendances pour Smush ; Installation de MediaInfo et FFprobe pour la récupération des métadonnées ; On n’utilise plus ffmpeg2theora ; On n’installe plus flvtool2 au profit de flvtool++ ; On n’installe plus ffmpeg-php qui n’est plus maintenu au (...) -
Ecrire une actualité
21 juin 2013, parPrésentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
Vous pouvez personnaliser le formulaire de création d’une actualité.
Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...) -
Gestion générale des documents
13 mai 2011, parMédiaSPIP ne modifie jamais le document original mis en ligne.
Pour chaque document mis en ligne il effectue deux opérations successives : la création d’une version supplémentaire qui peut être facilement consultée en ligne tout en laissant l’original téléchargeable dans le cas où le document original ne peut être lu dans un navigateur Internet ; la récupération des métadonnées du document original pour illustrer textuellement le fichier ;
Les tableaux ci-dessous expliquent ce que peut faire MédiaSPIP (...)
Sur d’autres sites (12883)
-
Cannot allocate memory error while uploading large video on AWS instance
5 septembre 2013, par user2261451I am working on a RoR website and i upload media files (like mp3,pdf,images and video) on the website. Website is hosted on AWS and i am using S3 bucket to upload the media files.
When i upload a video firstly save the video in public folder of my project on AWS instance where my website is hosted and then create the thumbnail of that video using FFMPEG and get the duration using ffmpeg-streamio and remove this video after creating thumbnail. It's working fine until uploading large video but when i try to upload large video it through an error i. e.
Errno::ENOMEM (Cannot allocate memory - /usr/local/bin/ffmpeg -i /var/www/html/proj/public/13/NVC_trim.mov) :
path = "public/" + @admin.id.to_s + "/" + params[:video].original_filename
dirpath = "public/" + @admin.id.to_s
FileUtils.mkdir_p dirpath
aFile = File.new(path, "w")
aFile.write(open(params[:video]).read)
aFile.close
system"/usr/local/bin/ffmpeg -itsoffset -4 -i /var/www/html/proj/#{path} -vcodec mjpeg -vframes 1 -an -f rawvideo /var/www/html/proj/#{dirpath}/thumb.png"
#calculate video duration
FFMPEG.ffmpeg_binary = '/usr/local/bin/ffmpeg'
movie = FFMPEG::Movie.new("/var/www/html/proj/#{path}")Am i missing something in the code ?
Any idea or help in this will be highly appreciated.Thanks in advance :)
-
How to efficiently split a large video into multiple parts using Python ?
7 décembre 2023, par OleksandrI have large video files ( 1.5 GB) and a list of time intervals in seconds, represented as [(1.3, 2.6), ..., (433.1, 455.2)].


The objective is to split the video into segments based on the specified time intervals. Currently, I am using the
ffmpeg-python
library for this task, as shown below :

import ffmpeg

parts = [(1.3, 2.6), ..., (433.1, 455.2)]

for index, part in enumerate(parts):
 file_name = f"video{index}.mp4"
 start_time, end_time = part
 
 input_file = ffmpeg.input(movie_path, ss=start_time, to=end_time)
 input_file.output(file_name).run()



That works, but it is relatively slow, processing only 1-2 segments per second.


What is a more efficient way or library that can potentially load the entire video into memory and perform the cutting operation with multiple outputs or something like that ?


-
avidec : Make sure a packet is large enough before reading its data
27 septembre 2013, par Martin Storsjö