
Recherche avancée
Médias (91)
-
Géodiversité
9 septembre 2011, par ,
Mis à jour : Août 2018
Langue : français
Type : Texte
-
USGS Real-time Earthquakes
8 septembre 2011, par
Mis à jour : Septembre 2011
Langue : français
Type : Texte
-
SWFUpload Process
6 septembre 2011, par
Mis à jour : Septembre 2011
Langue : français
Type : Texte
-
La conservation du net art au musée. Les stratégies à l’œuvre
26 mai 2011
Mis à jour : Juillet 2013
Langue : français
Type : Texte
-
Podcasting Legal guide
16 mai 2011, par
Mis à jour : Mai 2011
Langue : English
Type : Texte
-
Creativecommons informational flyer
16 mai 2011, par
Mis à jour : Juillet 2013
Langue : English
Type : Texte
Autres articles (65)
-
Personnaliser en ajoutant son logo, sa bannière ou son image de fond
5 septembre 2013, parCertains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;
-
Publier sur MédiaSpip
13 juin 2013Puis-je poster des contenus à partir d’une tablette Ipad ?
Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir -
Participer à sa traduction
10 avril 2011Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
Actuellement MediaSPIP n’est disponible qu’en français et (...)
Sur d’autres sites (10441)
-
How to use Mozilla DeepSpeech to generate subtitle from video file ?
31 mars 2022, par SingularitySGI'm currently trying to generate subtitles file .srt using Mozilla DeepSpeech libraries.


Confusion I'm having :


I'm following this guide but I'm completely lost at the part where he uses pyAudioAnalysis to trim out the silence portion of the .wav files.


Another is the portion where he processes the audio file via calling the ds model & ds scorer
I've downloaded both deepspeech-0.9.3-models.scorer and deepspeech-0.9.3-models.pbmm from https://github.com/mozilla/DeepSpeech/releases Do I just reference the model and scorer to the downloaded file path instead ?


def ds_process_audio(audio_file, file_handle): 
 ds = Model(ds_model)
 ds.enableExternalScorer(ds_scorer)



At the moment, I'm able to extract out .wav files from .mp4, .mkv video format.


I've tried pip install pyAudioAnalysis but I'm not sure how to call the functions that are related to it as per his guide in trimming out the silence portion of the .wav file. Below is the code I'm currently working with as of now.


video_name = "Videos\Gintama_EP342.mkv"
audio_name = video_name + ".wav"


def extractAudio(input_file, audio_file_name):
 # Extract audio from input video file and save to audio/ in root dir
 # Args:
 # input_file : input video file
 # audio_file_name : save audio WAV file with same filename as video file

 command = ["ffmpeg", "-hide_banner", "-loglevel", "warning", "-i", input_file, "-ac", "1", "-ar", "16000", "-vn", "-f", "wav", audio_file_name] 
 try:
 ret = sp.call(command, shell=True)
 print("Extracted audio to audio/{}".format(audio_file_name.split("/")[-1]))
 except Exception as e:
 print("Error: ", str(e))
 exit(1)



Appreciate any help given. Thank you


-
How to ensure plt.savefig saves multiple images instead of one ?
18 mars 2018, par NatalieI’m trying to save images after for each iteration to show how my neural network is learning.
for iterations in range(1,1000):
model.fit(x_train,
y_train,
batch_size=20,
epochs=1,
verbose=2)
predictions = model.predict(X)
plt.plot(X,predictions,'o')
plt.plot(r, morse(r,De,Re,alpha))
plt.xlabel(r'$r$') # internuclear separation distance
plt.ylabel(r'$V(r)$') # morse potential energy
plt.savefig('myfig'+str(iterations))
plt.clf()Originally, I was able to save every image, however, it now only saves the last iteration image only. I wondered how I might be able to solve this issue ?
Also, related the first question : using the images I’m saving, I’m trying to merge all the images together into a quick movie to show the training process. I’ve been using ffmpeg (see image below for syntax error), but I keep getting syntax errors. Could anyone guide me through what I might be doing wrong ? ffmpeg syntax error I’m getting
Thanks in advance for helping me out - completely new to machine learning but using it for a university project, so apologies for my lack of understanding/mistakes !!
-
dsputil : Split audio operations off into a separate context
16 janvier 2014, par Diego Biurrundsputil : Split audio operations off into a separate context
- [DBH] configure
- [DBH] libavcodec/Makefile
- [DBH] libavcodec/ac3enc.c
- [DBH] libavcodec/ac3enc.h
- [DBH] libavcodec/ac3enc_fixed.c
- [DBH] libavcodec/ac3enc_float.c
- [DBH] libavcodec/ac3enc_template.c
- [DBH] libavcodec/acelp_pitch_delay.c
- [DBH] libavcodec/acelp_pitch_delay.h
- [DBH] libavcodec/arm/Makefile
- [DBH] libavcodec/arm/audiodsp_arm.h
- [DBH] libavcodec/arm/audiodsp_init_arm.c
- [DBH] libavcodec/arm/audiodsp_init_neon.c
- [DBH] libavcodec/arm/audiodsp_neon.S
- [DBH] libavcodec/arm/dsputil_init_neon.c
- [DBH] libavcodec/arm/dsputil_neon.S
- [DBH] libavcodec/audiodsp.c
- [DBH] libavcodec/audiodsp.h
- [DBH] libavcodec/cook.c
- [DBH] libavcodec/dsputil.c
- [DBH] libavcodec/dsputil.h
- [DBH] libavcodec/ppc/Makefile
- [DBH] libavcodec/ppc/audiodsp.c
- [DBH] libavcodec/ppc/dsputil_altivec.h
- [DBH] libavcodec/ppc/dsputil_ppc.c
- [DBH] libavcodec/takdec.c
- [DBH] libavcodec/x86/Makefile
- [DBH] libavcodec/x86/audiodsp.asm
- [DBH] libavcodec/x86/audiodsp.h
- [DBH] libavcodec/x86/audiodsp_init.c
- [DBH] libavcodec/x86/audiodsp_mmx.c
- [DBH] libavcodec/x86/dsputil.asm
- [DBH] libavcodec/x86/dsputil_init.c
- [DBH] libavcodec/x86/dsputil_mmx.c
- [DBH] libavcodec/x86/dsputil_x86.h