Recherche avancée

Médias (0)

Mot : - Tags -/content

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (91)

  • À propos des documents

    21 juin 2013, par

    Que faire quand un document ne passe pas en traitement, dont le rendu ne correspond pas aux attentes ?
    Document bloqué en file d’attente ?
    Voici une liste d’actions ordonnée et empirique possible pour tenter de débloquer la situation : Relancer le traitement du document qui ne passe pas Retenter l’insertion du document sur le site MédiaSPIP Dans le cas d’un média de type video ou audio, retravailler le média produit à l’aide d’un éditeur ou un transcodeur. Convertir le document dans un format (...)

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

Sur d’autres sites (19916)

  • Use modern avconv syntax for codec selection in documentation and tests

    18 octobre 2012, par Diego Biurrun
    Use modern avconv syntax for codec selection in documentation and tests
    
    • [DBH] doc/encoders.texi
    • [DBH] doc/faq.texi
    • [DBH] doc/filters.texi
    • [DBH] tests/fate-run.sh
    • [DBH] tests/fate/demux.mak
    • [DBH] tests/fate/h264.mak
    • [DBH] tests/fate/microsoft.mak
    • [DBH] tests/fate/mp3.mak
    • [DBH] tests/fate/mpc.mak
    • [DBH] tests/fate/utvideo.mak
    • [DBH] tests/fate/video.mak
    • [DBH] tests/fate/vqf.mak
    • [DBH] tests/lavf-regression.sh
  • Inputting Audio Stream to FFMPEG

    5 avril 2018, par Wijaya

    I’m building a real time chat application with C# and ffmpeg.exe. My requirement is to get a memory stream from Microsoft Speech API and feed it to ffmpeg process in real time. I can take a memory stream from Microsoft Speech API. I’m using following code to create the memory stream.

           using (MemoryStream stream = new MemoryStream())
           {
               MemoryStream streamAudio = new MemoryStream();
               System.Media.SoundPlayer m_SoundPlayer = new System.Media.SoundPlayer();
               _speechSynthesizerVisemesSender.SetOutputToWaveStream(streamAudio);
               _speechSynthesizerVisemesSender.SetOutputToNull();
               stream.WriteTo(proc.StandardInput.BaseStream);
           }  

    I’m already using another datapipe with another command to feed video content to ffmpeg. But I couldn’t find a stable solution to feed audio through a datapipe. This article briefly explains about audio datapipe. I’m using following command to stream audio.

    "ffmpeg -re -f s16le -i pipe:wav -f mpegts udp://127.0.0.1:1234"

    But it is not working with the datapipe. If I try the command with mp3 or wav file, it works.

  • Best approach to set up live video streaming between HoloLens2 and Desktop PC

    19 mai 2021, par SilverLife

    First of all, I am sorry for this question. I know its more asking for an advice than asking about any coding problems. Unfortunately I don´t know where else I should ask such a question, so please be patient. (I am open for any recommendations)

    


    Since a while I am searching for a promising approach to stream live videos from a desktop PC via network to my HoloLens 2 unity application. The video transfer should be within a encapsulated network without internet access. Therefore a direct connection between both devices without any signaling- or web-servers would be desirable, if possible. For now we are thinking about sending the stream via ffmpeg and receiving it somehow in the unity application.
So far I came across MixedReality-WebRTC and ffmpegInterop. Unfortunately as I read, WebRTC needs at least some kind of signaling server which manages the connection between the clients. ffmpegInterop seems to be really difficult to integrate into unity.

    


    I am completely new to the topic of low latency video streaming and a bit lost in this complex environment. Can anybody give me an advice about a promising and extendable way to receive a low latency video stream ?