Recherche avancée

Médias (0)

Mot : - Tags -/latitude

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (59)

  • Amélioration de la version de base

    13 septembre 2013

    Jolie sélection multiple
    Le plugin Chosen permet d’améliorer l’ergonomie des champs de sélection multiple. Voir les deux images suivantes pour comparer.
    Il suffit pour cela d’activer le plugin Chosen (Configuration générale du site > Gestion des plugins), puis de configurer le plugin (Les squelettes > Chosen) en activant l’utilisation de Chosen dans le site public et en spécifiant les éléments de formulaires à améliorer, par exemple select[multiple] pour les listes à sélection multiple (...)

  • Menus personnalisés

    14 novembre 2010, par

    MediaSPIP utilise le plugin Menus pour gérer plusieurs menus configurables pour la navigation.
    Cela permet de laisser aux administrateurs de canaux la possibilité de configurer finement ces menus.
    Menus créés à l’initialisation du site
    Par défaut trois menus sont créés automatiquement à l’initialisation du site : Le menu principal ; Identifiant : barrenav ; Ce menu s’insère en général en haut de la page après le bloc d’entête, son identifiant le rend compatible avec les squelettes basés sur Zpip ; (...)

  • La sauvegarde automatique de canaux SPIP

    1er avril 2010, par

    Dans le cadre de la mise en place d’une plateforme ouverte, il est important pour les hébergeurs de pouvoir disposer de sauvegardes assez régulières pour parer à tout problème éventuel.
    Pour réaliser cette tâche on se base sur deux plugins SPIP : Saveauto qui permet une sauvegarde régulière de la base de donnée sous la forme d’un dump mysql (utilisable dans phpmyadmin) mes_fichiers_2 qui permet de réaliser une archive au format zip des données importantes du site (les documents, les éléments (...)

Sur d’autres sites (9924)

  • avdevice/dshow : list_devices : show media type(s) per device

    21 décembre 2021, par Diederick Niehorster
    avdevice/dshow : list_devices : show media type(s) per device
    

    the list_devices option of dshow didn't indicate whether a specific
    device provides audio or video output. This patch iterates through all
    media formats of all pins exposed by the device to see what types it
    provides for capture, and prints this to the console for each device.
    Importantly, this now allows to find devices that provide both audio and
    video, and devices that provide neither.

    Signed-off-by : Diederick Niehorster <dcnieho@gmail.com>
    Reviewed-by : Roger Pack <rogerdpack2@gmail.com>

    • [DH] libavdevice/dshow.c
  • How correctly show video with transparency in Qt with OpenCV + FFMpeg

    11 avril 2022, par TheEnigmist

    I'm trying to show a video with transparency in a Qt6 application using OpenCV + FFMPEG.&#xA;Actually those are tool versions :

    &#xA;

      &#xA;
    • Win 11
    • &#xA;

    • Qt 6.3.0
    • &#xA;

    • OpenCV 4.5.5 (built with CMake)
    • &#xA;

    • FFMPEG 2022-04-03-git-1291568c98-full_build-www.gyan.dev
    • &#xA;

    &#xA;

    I've used a base .mov video with transparency as test (link provided below).&#xA;First of all I've converted .mov video to .webm video (VP9) and I see in output text that alpha channel remains

    &#xA;

    &#xA;

    ffmpeg -i '.\Retro Bars.mov' -c:v libvpx-vp9 -crf 30 -b:v 0 output.webm

    &#xA;

    &#xA;

    Input #0, mov,mp4,m4a,3gp,3g2,mj2,&#xA;    ...&#xA;    Stream #0:0[0x1](eng): Video: qtrle (rle  / 0x20656C72), argb(progressive),&#xA;    ...&#xA;&#xA;Output #0, webm, &#xA;   ...&#xA;   Stream #0:0(eng): Video: vp9, yuva420p(tv, progressive),&#xA;   ...&#xA;

    &#xA;

    But when I show info of output file with ffmpeg it loses alpha channel :

    &#xA;

    &#xA;

    ffmpeg -i .\output.webm

    &#xA;

    &#xA;

    Input #0, matroska,webm,&#xA;    ...&#xA;    Stream #0:0(eng): Video: vp9 (Profile 0), yuv420p(tv, progressive),&#xA;    ...&#xA;

    &#xA;

    If I open output.webm with OBS it is shown correctly without a background, as shown in picture :&#xA;obs_load

    &#xA;

    If I try to open it with OpenCV + FFMPEG it shows a black background under bars, as shown in picture :&#xA;Qt_out

    &#xA;

    This is how I load video in Qt :

    &#xA;

    cv::VideoCapture capture;&#xA;capture.open(filename, cv::CAP_FFMPEG);&#xA;capture.set(cv::CAP_PROP_CONVERT_RGB, false); // try forcing load alpha channel&#xA;... //in a thread&#xA;while (capture.read(frame)) {&#xA;    qDebug() &lt;&lt; "c" &lt;&lt; frame.channels() &lt;&lt; "t" &lt;&lt;  frame.type() &lt;&lt; "d" &lt;&lt;  frame.depth(); // output: c 3 t 16 d 0&#xA;    cv::cvtColor(frame, frame, cv::COLOR_BGR2RGBA); //useless since no alpha channel is detected&#xA;    img = QImage(frame.data, frame.cols, frame.rows, QImage::Format_RGBA8888);&#xA;    emit processedImage(img); // to show image in a QLabel with QPixmap::fromImage(img)&#xA;}&#xA;

    &#xA;

    I think the problem is when I load the video with OpenCV, it doens't detect alpha channel, since I can load correctly in other player (obs, html5, etc.)

    &#xA;

    What I'm wrong with all process to show this video in Qt with transparency ?

    &#xA;

    EDIT : Added dropbox link with test video + ffmpeg outputs :&#xA;sample items

    &#xA;

  • I tried to play the audio on Alexa skill from my S3 Bucket, from the test tab, **it show but in fact, I can't hear any sound

    19 avril 2022, par Siti Mayna

    So I tried to play the audio on Alexa skill from my S3 Bucket, from the test tab, it show but in fact, I can't hear any sound. Another fact is, that I tried to use the sample audio from https://developer.amazon.com/en-US/docs/alexa/custom-skills/ask-soundlibrary.html and it is worked, but why it won't work when it comes from my own S3 Bucket ?

    &#xA;

    Notes :

    &#xA;

    I've tried to test the skill using my mobile phone also.

    &#xA;

    I've tried to encode the audio using FFmpeg.

    &#xA;

    I've tried to use Jovo to convert the audio. https://v3.jovo.tech/audio-converter

    &#xA;

    I don't know how to fix this error.

    &#xA;

    There is no error message on cloud watch.

    &#xA;

    Assumptions :&#xA;There is some problem related to the audio resources or there is more set to play audio from S3 Bucket since the sample audio is working.

    &#xA;

    Steps to reproduce :

    &#xA;

    &#xA;

    Build the interaction model

    &#xA;

    &#xA;

    &#xA;

    Encode the audio to make it Alexa skill friendly (fulfill the requirements, like sample rate, etc), I used and tried all of these :

    &#xA;

    &#xA;

    A :

    &#xA;

    ffmpeg -i  -ac 2 -codec:a libmp3lame -b:a 48k -ar 16000 -write_xing 0 &#xA;

    &#xA;

    B :

    &#xA;

    ffmpeg -i  -ac 2 -codec:a libmp3lame -b:a 48k -ar 24000 -write_xing 0 &#xA;

    &#xA;

    C :

    &#xA;

    ffmpeg -y -i input.mp3 -ar 16000 -ab 48k -codec:a libmp3lame -ac 1 output.mp3&#xA;

    &#xA;

    &#xA;

    Upload the audio resources on S3Bucket&#xA;Audio sample on s3 storage but none of them are produce any sounds

    &#xA;

    &#xA;

    &#xA;

    Use the link and insert it to APLA.json

    &#xA;

    &#xA;

    &#xA;    {&#xA;      "type": "APLA",&#xA;      "version": "0.91",&#xA;      "description": "Simple document that generates speech",&#xA;      "mainTemplate": {&#xA;        "parameters": [&#xA;          "payload"&#xA;        ],&#xA;        "type": "Sequencer",&#xA;        "items": [&#xA;          {&#xA;            "type": "Audio",&#xA;            "source": "https://72578561-d9d8-47b4-811c-cafbcbc5ddb9-us-east-1.s3.amazonaws.com/Media/one-small-step-alexa-24.mp3"&#xA;          }&#xA;        ]&#xA;      }&#xA;    }&#xA;&#xA;

    &#xA;

    notes : I change the link sources based on audio that I tried.

    &#xA;

    &#xA;

    the intent on lambda_function.py :

    &#xA;

    &#xA;

    def _load_apl_document(file_path):&#xA;    # type: (str) -> Dict[str, Any]&#xA;    """Load the apl json document at the path into a dict object."""&#xA;    with open(file_path) as f:&#xA;        return json.load(f)&#xA;&#xA;class LaunchRequestHandler(AbstractRequestHandler):&#xA;    """Handler for Skill Launch."""&#xA;    def can_handle(self, handler_input):&#xA;        # type: (HandlerInput) -> bool&#xA;&#xA;        return ask_utils.is_request_type("LaunchRequest")(handler_input)&#xA;&#xA;    def handle(self, handler_input):&#xA;        # type: (HandlerInput) -> Response&#xA;        logger.info("In LaunchRequestHandler")&#xA;&#xA;        # type: (HandlerInput) -> Response&#xA;        speak_output = "Hello World!"&#xA;        # .ask("add a reprompt if you want to keep the session open for the user to respond")&#xA;&#xA;        return (&#xA;            handler_input.response_builder&#xA;                #.speak(speak_output)&#xA;                .add_directive(&#xA;                        RenderDocumentDirective(&#xA;                            token="pagerToken",&#xA;                            document=_load_apl_document("APLA.json"),&#xA;                            datasources={}&#xA;                        )&#xA;                    )&#xA;                .response&#xA;        )&#xA;

    &#xA;

    &#xA;

    Deploy

    &#xA;

    &#xA;

    &#xA;

    Test it

    &#xA;

    &#xA;

    &#xA;

    The result of the test on my end :&#xA;&#xA;The response for testing

    &#xA;

    &#xA;

    the JSON response :

    &#xA;

    {&#xA;    "body": {&#xA;        "version": "1.0",&#xA;        "response": {&#xA;            "directives": [&#xA;                {&#xA;                    "type": "Alexa.Presentation.APLA.RenderDocument",&#xA;                    "token": "pagerToken",&#xA;                    "document": {&#xA;                        "type": "APLA",&#xA;                        "version": "0.91",&#xA;                        "description": "Simple document that generates speech",&#xA;                        "mainTemplate": {&#xA;                            "parameters": [&#xA;                                "payload"&#xA;                            ],&#xA;                            "type": "Sequencer",&#xA;                            "items": [&#xA;                                {&#xA;                                    "type": "Audio",&#xA;                                    "source": "https://72578561-d9d8-47b4-811c-cafbcbc5ddb9-us-east-1.s3.amazonaws.com/Media/one-small-step-alexa-24.mp3"&#xA;                                }&#xA;                            ]&#xA;                        }&#xA;                    },&#xA;                    "datasources": {}&#xA;                }&#xA;            ],&#xA;            "type": "_DEFAULT_RESPONSE"&#xA;        },&#xA;        "sessionAttributes": {},&#xA;        "userAgent": "ask-python/1.16.1 Python/3.7.12"&#xA;    }&#xA;}&#xA;

    &#xA;

    &#xA;

    On my cloud Watch :&#xA;Cloud Watch

    &#xA;

    &#xA;