
Recherche avancée
Autres articles (69)
-
MediaSPIP v0.2
21 juin 2013, parMediaSPIP 0.2 est la première version de MediaSPIP stable.
Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...) -
MediaSPIP version 0.1 Beta
16 avril 2011, parMediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...) -
Des sites réalisés avec MediaSPIP
2 mai 2011, parCette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.
Sur d’autres sites (10337)
-
How to use ffmpeg binary in android ?
6 novembre 2013, par cjose3I want make a video from images. I see in some posts (Using FFmpeg with Android-NDK, Create a Video file from images using ffmpeg images-using-ffmpeg) That use command line, is the best choice ?? it's possible ?
How are build ffmpeg.so ?
How I can add to the project ?This is the command that pretenfi use :
ffmpeg -r 1 -pattern_type glob -i '*.jpg' out.mp4
thanks very much.
I have 2 weeks search !Sorry for my English.
-
The audio selector of kaltura player is inactive
17 février 2018, par Bolot KalilGuys.
I have created single video file with multiple audio using this ffmpeg code :
ffmpeg -y -i input.mp4 -i 1.mp3 -i 2.mp3 -map 0:v -map 1:a -map 2:a -metadata:s:a:0 language=kir -metadata:s:a:0 title="Kirghiz" -metadata:s:a:1 language=eng -metadata:s:a:1 title="English" -acodec copy -bsf:a aac_adtstoasc -vcodec copy -movflags faststart output.mp4
But on the kaltura after uploading the video file, audio selector on the player is inactive, why ?
I have tried also with xml file, the result is same.
Please help me I couldn’t find the reason why this happens.
Many thanks.
-
I faced ffmpeg error in my project run time
3 juillet 2023, par Jesy JRuntime error: can't load audio from file: 'ffmpeg' not found. Please install 
'ffmpeg' in your system to use non- wav audio file format and make sure 'ffprobe' 
is in your path



I configure ffmpeg in my system but still I face this error.


This is my code :


!pip install gradio
!pip install SpeechRecognition
!pip install pydub
!pip install openai

import gradio as gr
import speech_recognition as sr
from pydub import AudioSegment
import openai

# Set up OpenAI API
openai.api_key = [MASKED]

# Function to convert text to speech using OpenAI's API
def text_to_speech(text, language):
 response = openai.Completion.create(
 engine="davinci",
 prompt=f"Translate the following English text into {language}: \"{text}\"",
 max_tokens=100,
 temperature=0.8,
 top_p=1.0,
 frequency_penalty=0.0,
 presence_penalty=0.0,
 stop=None,
 n=1,
 log_level="info"
 )
 return response.choices[0].text.strip()

# Function to recognize speech from audio
def speech_to_text(audio):
 recognizer = sr.Recognizer()
 with sr.AudioFile(audio) as source:
 audio_data = recognizer.record(source)
 return recognizer.recognize_google(audio_data)

# Function to convert audio to desired language
def convert_language(audio, target_language):
 recognized_text = speech_to_text(audio)
 translated_text = text_to_speech(recognized_text, target_language)
 return translated_text

# Function to process user input and generate output
def process_audio(input_audio, target_language):
 converted_text = convert_language(input_audio.name, target_language)
 return gr.outputs.Audio(converted_text, type="filepath")

# Set up Gradio interface
audio_input = gr.inputs.Audio(source="microphone")

language_input = gr.inputs.Dropdown(choices=["English", "French", "German"]) # Add more languages as needed

output_audio = gr.outputs.Audio(type="filepath", label="Output Audio")

title = "Multilingual AI Voice Assistant"

description = "Upload an audio file and select the target language for translation."

gr.Interface(fn=process_audio, inputs=[audio_input, language_input], outputs=output_audio, title=title, description=description).launch()