Recherche avancée

Médias (0)

Mot : - Tags -/utilisateurs

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (90)

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • Configurer la prise en compte des langues

    15 novembre 2010, par

    Accéder à la configuration et ajouter des langues prises en compte
    Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
    De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
    Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)

  • XMP PHP

    13 mai 2011, par

    Dixit Wikipedia, XMP signifie :
    Extensible Metadata Platform ou XMP est un format de métadonnées basé sur XML utilisé dans les applications PDF, de photographie et de graphisme. Il a été lancé par Adobe Systems en avril 2001 en étant intégré à la version 5.0 d’Adobe Acrobat.
    Étant basé sur XML, il gère un ensemble de tags dynamiques pour l’utilisation dans le cadre du Web sémantique.
    XMP permet d’enregistrer sous forme d’un document XML des informations relatives à un fichier : titre, auteur, historique (...)

Sur d’autres sites (11198)

  • build : rename version.h to libavutil/ffversion.h

    29 novembre 2013, par Timothy Gu
    build : rename version.h to libavutil/ffversion.h
    

    Also the libavutil/ffversion.h will be installed.

    Rationale :
    * Applications might want to know FFmpeg’s version besides the individual
    libraries’.
    * Avoids file name clash between FFmpeg’s ./version.h and lib*/version.h when
    a library source file includes both and is compiled on an out-of-tree build.

    Fixes #1769.

    Signed-off-by : Timothy Gu <timothygu99@gmail.com>
    Reviewed-by : James Almer <jamrial@gmail.com>
    Signed-off-by : Michael Niedermayer <michaelni@gmx.at>

    • [DH] .gitignore
    • [DH] Makefile
    • [DH] cmdutils.c
    • [DH] doc/APIchanges
    • [DH] ffprobe.c
    • [DH] libavutil/Makefile
    • [DH] libavutil/version.h
  • aarch64 : vp9itxfm16 : Do a simpler half/quarter idct16/idct32 when possible

    25 février 2017, par Martin Storsjö
    aarch64 : vp9itxfm16 : Do a simpler half/quarter idct16/idct32 when possible
    

    This work is sponsored by, and copyright, Google.

    This avoids loading and calculating coefficients that we know will
    be zero, and avoids filling the temp buffer with zeros in places
    where we know the second pass won’t read.

    This gives a pretty substantial speedup for the smaller subpartitions.

    The code size increases from 21512 bytes to 31400 bytes.

    The idct16/32_end macros are moved above the individual functions ; the
    instructions themselves are unchanged, but since new functions are added
    at the same place where the code is moved from, the diff looks rather
    messy.

    Before :
    vp9_inv_dct_dct_16x16_sub1_add_10_neon : 284.6
    vp9_inv_dct_dct_16x16_sub2_add_10_neon : 1902.7
    vp9_inv_dct_dct_16x16_sub4_add_10_neon : 1903.0
    vp9_inv_dct_dct_16x16_sub8_add_10_neon : 2201.1
    vp9_inv_dct_dct_16x16_sub12_add_10_neon : 2510.0
    vp9_inv_dct_dct_16x16_sub16_add_10_neon : 2821.3
    vp9_inv_dct_dct_32x32_sub1_add_10_neon : 1011.6
    vp9_inv_dct_dct_32x32_sub2_add_10_neon : 9716.5
    vp9_inv_dct_dct_32x32_sub4_add_10_neon : 9704.9
    vp9_inv_dct_dct_32x32_sub8_add_10_neon : 10641.7
    vp9_inv_dct_dct_32x32_sub12_add_10_neon : 11555.7
    vp9_inv_dct_dct_32x32_sub16_add_10_neon : 12499.8
    vp9_inv_dct_dct_32x32_sub20_add_10_neon : 13403.7
    vp9_inv_dct_dct_32x32_sub24_add_10_neon : 14335.8
    vp9_inv_dct_dct_32x32_sub28_add_10_neon : 15253.6
    vp9_inv_dct_dct_32x32_sub32_add_10_neon : 16179.5

    After :
    vp9_inv_dct_dct_16x16_sub1_add_10_neon : 282.8
    vp9_inv_dct_dct_16x16_sub2_add_10_neon : 1142.4
    vp9_inv_dct_dct_16x16_sub4_add_10_neon : 1139.0
    vp9_inv_dct_dct_16x16_sub8_add_10_neon : 1772.9
    vp9_inv_dct_dct_16x16_sub12_add_10_neon : 2515.2
    vp9_inv_dct_dct_16x16_sub16_add_10_neon : 2823.5
    vp9_inv_dct_dct_32x32_sub1_add_10_neon : 1012.7
    vp9_inv_dct_dct_32x32_sub2_add_10_neon : 6944.4
    vp9_inv_dct_dct_32x32_sub4_add_10_neon : 6944.2
    vp9_inv_dct_dct_32x32_sub8_add_10_neon : 7609.8
    vp9_inv_dct_dct_32x32_sub12_add_10_neon : 9953.4
    vp9_inv_dct_dct_32x32_sub16_add_10_neon : 10770.1
    vp9_inv_dct_dct_32x32_sub20_add_10_neon : 13418.8
    vp9_inv_dct_dct_32x32_sub24_add_10_neon : 14330.7
    vp9_inv_dct_dct_32x32_sub28_add_10_neon : 15257.1
    vp9_inv_dct_dct_32x32_sub32_add_10_neon : 16190.6

    Signed-off-by : Martin Storsjö <martin@martin.st>

    • [DH] libavcodec/aarch64/vp9itxfm_16bpp_neon.S
  • How do I send a mediaStream from the electron renderer process to a background ffmpeg process ?

    26 juillet 2020, par Samamoma_Vadakopa

    Goal (to avoid the XY problem) :

    &#xA;

    I'm building a small linux desktop application using webRTC, electron, and create-react-app. The application should receive a mediaStream via a webRTC peer connection, display the stream to the user, create a virtual webcam device, and send the stream to the virtual webcam so it can be selected as the input on most major videoconferencing platforms.

    &#xA;

    Problem :

    &#xA;

    The individual parts all work : receiving the stream (webRTC), creating the webcam device (v4l2loopback), creating a child process of ffmpeg from within electron, passing the video stream to the ffmpeg process, streaming the video to the virtual device using ffmpeg, and selecting the virtual device and seeing the video stream in a videoconference meeting.

    &#xA;

    But I'm currently stuck on tying the parts together.&#xA;The problem is, the mediaStream object is available inside electron's renderer process (as state in a deeply nested react component, FWIW). As far as I can tell, I can only create a node.js child process of ffmpeg from within electron's main process. That implies that I need to get the mediaStream from the renderer to the main process. To communicate between processes, electron uses an IPC system. Unfortunately, it seems that IPC doesn't support sending a complex object like a video stream.

    &#xA;

    What I've tried :

    &#xA;

      &#xA;
    • starting ffmpeg child process (using child_process.spawn) from within renderer process throws 'fs.fileexistssync' error. Browsing SO indicates that only the main process can start these background processes.

      &#xA;

    • &#xA;

    • creating separate webRTC connection between renderer and main to re-stream the video. I'm using IPC to facilitate the connection, but offer/answer descriptions aren't reaching the other peer over IPC - my guess is this is due to the same limitations on IPC as before.

      &#xA;

    • &#xA;

    &#xA;

    My next step is to create a separate node server on app startup which ingests the incoming RTC stream and rebroadcasts it to the app's renderer process, as well as to a background ffmpeg process.

    &#xA;

    Before I try that, though, does anyone have suggestions for approaches I should consider ? (this is my first SO question, so any advice on how to improve it is appreciated).

    &#xA;