
Recherche avancée
Médias (2)
-
Rennes Emotion Map 2010-11
19 octobre 2011, par
Mis à jour : Juillet 2013
Langue : français
Type : Texte
-
Carte de Schillerkiez
13 mai 2011, par
Mis à jour : Septembre 2011
Langue : English
Type : Texte
Autres articles (111)
-
Qualité du média après traitement
21 juin 2013, parLe bon réglage du logiciel qui traite les média est important pour un équilibre entre les partis ( bande passante de l’hébergeur, qualité du média pour le rédacteur et le visiteur, accessibilité pour le visiteur ). Comment régler la qualité de son média ?
Plus la qualité du média est importante, plus la bande passante sera utilisée. Le visiteur avec une connexion internet à petit débit devra attendre plus longtemps. Inversement plus, la qualité du média est pauvre et donc le média devient dégradé voire (...) -
Script d’installation automatique de MediaSPIP
25 avril 2011, parAfin de palier aux difficultés d’installation dues principalement aux dépendances logicielles coté serveur, un script d’installation "tout en un" en bash a été créé afin de faciliter cette étape sur un serveur doté d’une distribution Linux compatible.
Vous devez bénéficier d’un accès SSH à votre serveur et d’un compte "root" afin de l’utiliser, ce qui permettra d’installer les dépendances. Contactez votre hébergeur si vous ne disposez pas de cela.
La documentation de l’utilisation du script d’installation (...) -
MediaSPIP version 0.1 Beta
16 avril 2011, parMediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)
Sur d’autres sites (6190)
-
Set the width of text in FFMPEG
7 juin 2020, par Super GadgetsI am currently stuck with ffmpeg issue, I have an online video editor where users can add text and edit it.



So I make an overlay div over the tag to let the user see exactly what the video will look like after render.



But here is the issue : How can I get the css and let ffmpeg apply it on the text, the css will be the div where the transcription is how width, height , margins , colors ...



Here is an example of a box :



<div style="width:100px;text-align:center;top:10px;left:10px> TEXT HERE <div>&#xA;

 ;
 ;
P.s : I tried Aegisub, force_style but no options seems to offer setting the width of the box.

 ;
 ;
Is there any way to do this ? Thank you.

 ;">
How to import the CascadeClassifier module from Opencv ?
This porgram is to detect faces in the specified image. I have opencv and ffmpeg properly installed. Also, when I check the file path to see if CascadeClassifer was there, indeed it was. I somehow, still received the error :
AttributeError : ’module’ object has no attribute ’CascadeClassifer’. I was thinking maybe it should not be called using ’cv2.CascadeClassifier’ and maybe something more lengthy. Thank you
import cv2
import numpy as np
face_cascade = cv2.CascadeClassifer('haarcascade_frontalface_default.xml')
eye_cascade = cv2.CascadeClassifier('haarcascade_eye.xml')
image = cv2.imread('image.png')
gray = cv2.cvtColor(image, cv2.COLOR_RGB2GRAY)
faces = face_cascade.detectMultiScale(gray, 1.3, 5)
for (x,y,w,h) in faces:
cv2.rectangle(image,(x,y),(x+w,y+h), (225,0,0),2)
roi_gray = gray[y:y+h, x:x+w]
roi_color = image[y:y+h, x:x+w]
eyes = eye_cascade.detectMultiScale(roi_gray)
for (ex,ey,ew,eh) in eyes:
cv2.rectangle(roi_color,(ex,ey),(ex+ew,ey+eh),(0,255,0),2)
cv2.imshow('Imgae', image)
cv2.waitKey(0)
cv2.destroyAllWindows()
FFMPEG Combining images to video and streaming in one command line
Currently, using ffmpeg, I am using two commands on my Terminal to :
1) create a video from a bunch of images :
ffmpeg -r 60 -f image2 -s 1920x1080 -i rotated-pano_frame%05d_color_corrected_gradblend.jpg -vcodec libx264 -crf 25 -pix_fmt yuv420p test.mp4
2) stream the video to a udp address :
ffmpeg -re -i test.mp4 -c copy -f flv udp://127.0.0.1:48550
How can I combine these two commands, into one single ffmpeg command ?
A concern I have is that it takes a couple of minutes to generate the video from the images. Therefore, these commands have to happen serially, whereby the second command waits a few minutes for the first command to be completed, before it ensues.