
Recherche avancée
Médias (1)
-
Rennes Emotion Map 2010-11
19 octobre 2011, par
Mis à jour : Juillet 2013
Langue : français
Type : Texte
Autres articles (61)
-
Participer à sa traduction
10 avril 2011Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
Actuellement MediaSPIP n’est disponible qu’en français et (...) -
Publier sur MédiaSpip
13 juin 2013Puis-je poster des contenus à partir d’une tablette Ipad ?
Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir -
HTML5 audio and video support
13 avril 2011, parMediaSPIP uses HTML5 video and audio tags to play multimedia files, taking advantage of the latest W3C innovations supported by modern browsers.
The MediaSPIP player used has been created specifically for MediaSPIP and can be easily adapted to fit in with a specific theme.
For older browsers the Flowplayer flash fallback is used.
MediaSPIP allows for media playback on major mobile platforms with the above (...)
Sur d’autres sites (10978)
-
Evolution #3091 (Nouveau) : Eviter le timout d’un article qui contient trop de ou
13 novembre 2013, par - EquipementBonjour,
Un rédacteur a mis plusieurs centaines de DANS LE TEXTE d’un article, ce qui s’est traduit par un timeout lors de l’affichage de l’article.
Si les documents ne sont pas dans le texte de l’article, cela ne pose pas de problème.Le rédacteur ne peut pas deviner que, lors du calcul de la page, SPIP va calculer autant de fois le squelette doc.html qu’il y a de dans le texte de l’article, ce qui augmente le temps de traitement.
Aussi, une idée consisterait à ce que SPIP informe le rédacteur, au moment de l’enregistrement de son article, si ce dernier dépasse la limite du nombre maximal de ou p>
if (defined(’_MAX_INCLURE_MODELES’) AND intval(_MAX_INCLURE_MODELES)>0) $texte = _request(’texte’) ; if (strpos($texte,"<") !==false) if (preg_match_all(’/<[a-z_-]3,\s*[0-9|]+/iS’, $texte, $matches, PREG_SET_ORDER)>intval(_MAX_INCLURE_MODELES)) $erreurs[’texte’] = _T(’info_trop_de_modeles’) ;
Comme cette fonction formulaires_editer_article_verifier_dist restera sans effet pour les articles déjà existants et que l’on ne modifie pas, il est intéressant d’intervenir également sur la fonction inclure_modele. Il s’agit de faire en sorte que la page s’affiche avec tout le texte de l’article, mais celui-ci contiendrait uniquement les _MAX_INCLURE_MODELES premiers documents (ou images ou ...).
Le début de la fonction de SPIP « inclure_modele » se verrait ainsi ajouter les 2 lignes ci-dessous qui portent sur $compteur_total (à noter que $compteur existe déjà actuellement pour les modèles inconnus, et est décrémenté plus loin dans la fonction si le modèle est connu) :
function inclure_modele($type, $id, $params, $lien, $connect=’’)
static $compteur ;
static $compteur_total ;
if (++$compteur>10) return ’’ ; # ne pas boucler indefiniment
if (defined(’_MAX_INCLURE_MODELES’) AND intval(_MAX_INCLURE_MODELES)>0 AND ++$compteur_total>intval(_MAX_INCLURE_MODELES)) return ’’ ;Cordialement
Equipement -
Stream RTSP to HTML5 Video - which is the best approach ?
13 janvier 2020, par DanielAs this task is very complicated I’ve created two approaches and I’d like to know which is the better approach for my purpose.
Approach 1 :
H264 frames are grabbed out of RTSP stream on the server (i.e. by ffmpeg), then they are put into a websocket and sent to the client. Client uses mp4box.js to fragment the h264 and then HTML5 video can render it with MSE.
Approach 2 :
H264 frames are grabbed out of RTSP stream and also fragmented on the server (i.e. by ffmpeg), then they are transferred directly to the client’s HTML5 video to render it with MSE.
Here is an example for this approach.If we consider today’s client devices (modern phones, notebooks), we can state approach1 would be a better solution because it would prevent the central load on the server.
However I have not really found any good resource or material on how to use approach1, hence I could not yet tried it out.
I would like to know if approach1 is really better than approach2 ?
because maybe grabbing and fragmenting would not put much higher load on the server than grabbing only
(why I’m asking this ? because for approach2 I’ve a concrete example, whereas for approach1 I don’t. If approach1 is really better, I’ll go for it and implement the whole thing.)
To put it more exact : does ffmpeg stress the server more if it grabs and fragments an rtsp-h264 stream to fmp4 than when it only grabs the frames from rtsp-h264 stream ?
-
ffmpeg/h265/opencv/c++ A method to resize frame after decoding on client side
18 janvier 2018, par 8793I’ve just joined a project to build a realtime video streaming application using ffmpeg/opencv/c++ via udp socket. On server side, they want to transmit a video size (640x480) to client, in order to reduce data transmission through network I resize the video to (320x240) and send frame. On client side (client), after receiving frame, we will upscale the frame back to (640x480). Using H265 for encode/decoding.
As I am just a beginner with video encoding, I would like to understand how to down-sampling & up-sampling the frame at server & client side in which we can incorporate with the video encoder/decoder.
A simple idea came into my mind that after decoding avframe -> Mat frame, I will upsampling this frame then display it.
I am not sure my idea is right or wrong. I would like to seek advice from any people who had experience in this area. Thank you very much !
static void updateFrameCallback(AVFrame *avframe, void* userdata) {
VideoStreamUDPClient* streamer = static_cast (userdata);
TinyClient* client = static_cast (streamer->userdata);
//Update Frame
pthread_mutex_lock(&client->mtx_updateFrame);
if (streamer->irect.width == client->frameSize.width
&& streamer->irect.height == client->frameSize.height) {
cvtAVFrameYUV4202Frame(&avframe, client->frame);
printf("TinyClient: Received Full Frame\n");
} else {
Mat block;
cvtAVFrameYUV4202Frame(&avframe, block);
block.copyTo(client->frame(streamer->irect));
}
//How to resize frame before display it!!!
imshow("Frame", client->frame);
waitKey(1);
pthread_mutex_unlock(&client->mtx_updateFrame);
}