Recherche avancée

Médias (91)

Autres articles (79)

  • Les autorisations surchargées par les plugins

    27 avril 2010, par

    Mediaspip core
    autoriser_auteur_modifier() afin que les visiteurs soient capables de modifier leurs informations sur la page d’auteurs

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • Configurer la prise en compte des langues

    15 novembre 2010, par

    Accéder à la configuration et ajouter des langues prises en compte
    Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
    De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
    Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)

Sur d’autres sites (10130)

  • Revision 609e91f9b7 : vp8 denoiser : fix to zero_mv mode selection. In the current logic, if the sse f

    28 mai 2014, par Marco Paniconi

    Changed Paths :
     Modify /vp8/encoder/denoising.c



    vp8 denoiser : fix to zero_mv mode selection.

    In the current logic, if the sse for zero motion is smaller
    than the sse for new_mv (i.e., best_sse), we may still end up
    using the non-zero mv for denoising (if the magnitude of new_mv is above
    threshold).
    This can happen for very noisy content, and can lead to artifacts.

    This change ensures that we always use zero_mv (over new_mv) for
    denoisng if sse_zero_mv <= best_sse.

    Change-Id : I8ef9294d837b077013b77a46c9a71d17c648b48a

  • FFMPEG : Is it possible to merge video clips but cutout overlapping frames ?

    18 avril 2019, par Muhammad Umer

    I’ve got clips of video game. These clips are highlights and recorded automatically when some event happens. I can find solutions to merge them using cli and ffmpeg. Clips are 3 minutes recordings. So if 2 events happen closely, < 3 min apart, then there is overlap. Is it possible to ignore/subtract/delete subsequent clips upto point where last frame that’s overlapping.

    EX:
    Clips= A(1-4), B(7-11), C(9-13).

    B and C are overlapping.

    Can ffmpeg detect overlapping frames in C and only merge (12-13).

    Clips are alphabetically sortable.
  • Android-How to pass back frames from FFmpeg back to Android

    23 octobre 2013, par yarin

    It is an architecture question-i am really interesting about the answer

    I building an app with following goals :

    1.record video with effect in real time(using FFmpeg)

    2.display the customized video in real time for the user while he recording

    So,after 1 month of working...i decide to remember that goal number 2 is worth to thinking about :)
    I have a ready skeleton app that record video with effect in real time.
    but i have to preview this customized frame back to the user.

    My options (and this is my question) :

    1.Each frame that pass from onPreviewFrame(byte[] video_frame_data, Camera camera) to ffmpeg with JNI to encode-will sending back to android through the same JNI after i apply the effects(i mean : onPreviewFrame->JNI to FFMPEG->immediately apply effect->send the costumed frame back to android side for display->encode the costumed frame).

    Advantages : it is look like is the most easy to use.

    Disadvantages : use the JNI twice or the passing back the frame could consume time(i really don't now if it really big price to pay,cuz it is only byte array or int array per frame to send to android side)

    2.I heard about openGL on ndk,but i think that the surface it self created on the android side-so is it really going to be better ?
    i prefer to use other surface that i using now in java

    3.Create an video player on FFmpeg to preview each customized frame in real time.

    Thank for your helping,i hope that the first solution is available and not consume to much expensive time in terms of real time processing