Recherche avancée

Médias (1)

Mot : - Tags -/MediaSPIP 0.2

Autres articles (51)

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

  • Taille des images et des logos définissables

    9 février 2011, par

    Dans beaucoup d’endroits du site, logos et images sont redimensionnées pour correspondre aux emplacements définis par les thèmes. L’ensemble des ces tailles pouvant changer d’un thème à un autre peuvent être définies directement dans le thème et éviter ainsi à l’utilisateur de devoir les configurer manuellement après avoir changé l’apparence de son site.
    Ces tailles d’images sont également disponibles dans la configuration spécifique de MediaSPIP Core. La taille maximale du logo du site en pixels, on permet (...)

  • ANNEXE : Les plugins utilisés spécifiquement pour la ferme

    5 mars 2010, par

    Le site central/maître de la ferme a besoin d’utiliser plusieurs plugins supplémentaires vis à vis des canaux pour son bon fonctionnement. le plugin Gestion de la mutualisation ; le plugin inscription3 pour gérer les inscriptions et les demandes de création d’instance de mutualisation dès l’inscription des utilisateurs ; le plugin verifier qui fournit une API de vérification des champs (utilisé par inscription3) ; le plugin champs extras v2 nécessité par inscription3 (...)

Sur d’autres sites (7818)

  • Revision 9c061ef506 : Properly validate data size With "show_existing_frame" frames : Minimum data siz

    5 janvier 2015, par Yaowu Xu

    Changed Paths :
     Modify /vp9/vp9_dx_iface.c



    Properly validate data size

    With "show_existing_frame" frames :
    Minimum data size for profile 0 and 1 is 1 byte (8bits)
    Minimum data size for profile 2 and 3 is 2 bytes (9bits)

    Otherwise :
    Minimum data size is 8 bytes.

    This resolves the VP9 failure in fuzzing test build #56.

    Change-Id : I146d9d37688f535dd68d24aacc76d464ccffdf04

  • Google Analytics Sampling : Why It Matters and How to Avoid It

    21 octobre 2024, par Daniel Crough — Analytics Tips

    When marketing decisions rely on website analytics, accuracy matters.
    However, Google Analytics and other analytics platforms sample data to
    generate reports, which can sometimes misrepresent the true data trends.

    Read More

  • Improving Google Cloud Speech-to-Text accuracy

    6 juillet 2020, par lr_optim

    I'm working on a project where I need to perform these steps :

    


      

    1. Record a voice call (.webm -file)
    2. 


    3. Split the webm -file into chunks with ffmpeg and convert the file into wav
    4. 


    5. Transcribe the chunks using SpeechRecognition -library and Google Cloud API
    6. 


    


    I've faced problems with the transcription accuracy and wondering if there is something I could do to improve it. At the time I'm splitting the original file into 30s chunks. I thought there might be one problem, that I might be missing words because of splitting so I've tried also with longer chunks under 60s but didn't notice any improve in accuracy.
Reading trough the speechRecognition docs I decided to set r.energy_threshold = 4000, I also tried to set the energy_treshold dynamically like this :

    


    with sr.AudioFile(name) as source:
    r.dynamic_energy_threshold = True
    r.adjust_for_ambient_noise(source, duration = 1)
    audio = r.record(source)


    


    I've also tested en-US and en-GB to see if there's some difference but there isn't as much as I'd want. The program is supposed to work with english language spoken by nordic people. If someone has experience about choosing a right language model for people speaking with accent, please let me know.

    


    This is the ffmpeg command is use to split the webm file into chunks : command = ['ffmpeg', '-i', filename, '-f', 'segment', '-segment_time', '30', parts_dir + outputname + '%09d.wav']

    


    Is there somethig I could do better ? I'm wondering if the quality is not good enough an Google is having hard time because of that ?

    


    The main problem is I'm getting bad results (lots of wrong words) from Google and wondering if there is something I could do about it.