Recherche avancée

Médias (1)

Mot : - Tags -/iphone

Autres articles (97)

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

  • Gestion des droits de création et d’édition des objets

    8 février 2011, par

    Par défaut, beaucoup de fonctionnalités sont limitées aux administrateurs mais restent configurables indépendamment pour modifier leur statut minimal d’utilisation notamment : la rédaction de contenus sur le site modifiables dans la gestion des templates de formulaires ; l’ajout de notes aux articles ; l’ajout de légendes et d’annotations sur les images ;

  • Dépôt de média et thèmes par FTP

    31 mai 2013, par

    L’outil MédiaSPIP traite aussi les média transférés par la voie FTP. Si vous préférez déposer par cette voie, récupérez les identifiants d’accès vers votre site MédiaSPIP et utilisez votre client FTP favori.
    Vous trouverez dès le départ les dossiers suivants dans votre espace FTP : config/ : dossier de configuration du site IMG/ : dossier des média déjà traités et en ligne sur le site local/ : répertoire cache du site web themes/ : les thèmes ou les feuilles de style personnalisées tmp/ : dossier de travail (...)

Sur d’autres sites (9398)

  • how to add header info to a wav file to get a same result as ffmpeg ?

    30 avril 2023, par Q.Tong

    I'm trying to generate a .wav file with Fastspeech. When I save the data as .pcm file, and transfer it to .wav by ffmpeg, it works well.But when I just add a wav header info and save it into .wav, it sounds very noisy, What's wrong with my code ?

    


    code for pcm :

    


        wav = wav.astype(np.float32)
    wav = wav.tostring()
    with open('test.pcm', 'wb') as f:
        f.write(wav)


    


    ffmpeg command :

    


    ffmpeg -f f32le -ar 16000 -i test.pcm file.wav  # works well


    


    write wav straightly :

    


    import struct

def pcm2wav(sample_rate, pcm_voice):
    if pcm_voice.startswith("RIFF".encode()):
        return pcm_voice
    else:
        sampleNum = len(pcm_voice)
        rHeaderInfo = "RIFF".encode()
        rHeaderInfo += struct.pack('i', sampleNum + 44)
        rHeaderInfo += 'WAVEfmt '.encode()
        rHeaderInfo += struct.pack('i', 16)
        rHeaderInfo += struct.pack('h', 1)
        rHeaderInfo += struct.pack('h', 1)
        rHeaderInfo += struct.pack('i', sample_rate)
        rHeaderInfo += struct.pack('i', sample_rate * int(32 / 8))
        rHeaderInfo += struct.pack("h", int(32 / 8))
        rHeaderInfo += struct.pack("h", 32)
        rHeaderInfo += "data".encode()
        rHeaderInfo += struct.pack('i', sampleNum)
        rHeaderInfo += pcm_voice
        return rHeaderInfo

# .......
# get data with FastSpeech model
wav = wav.astype(np.float32)
wav = wav.tostring()
wav = pcm2wav(16000, wav)
with open('test.wav', 'wb') as f:
    f.write(wav)   # many noisy sounds


    


  • I need to make an Android app for the duet, and I'd like to ask you for advice [on hold]

    25 juin 2018, par Junburg

    I want to make an app that can do a duet with a singer. I want to play the vocal and background music files of the singer, stop the vocal file of the singer every desired interval, and record the voice of the user. At the end, all the sounds should be combined into a single mp3 file. Is it possible to develop and use ffmpeg to implement this feature on Android ? Is there no example or related library ?

  • Synchronize multiple audio streams

    1er octobre 2020, par Pittie

    I try to synchronize several audio streams coming from several RTP sources with this filter

    


    [0:a][1:a][2:a] amix=inputs=3 [mixed]


    


    I want the audio to be almost real-time and the sounds can be played right after they arrive. but ffmpeg try to sync them based on the timestamp. and if the stream 1 arrive sooner, they have to wait for the last stream to come.

    


    what should I do to make the program do what I expect ?