Recherche avancée

Médias (1)

Mot : - Tags -/iphone

Autres articles (89)

  • Amélioration de la version de base

    13 septembre 2013

    Jolie sélection multiple
    Le plugin Chosen permet d’améliorer l’ergonomie des champs de sélection multiple. Voir les deux images suivantes pour comparer.
    Il suffit pour cela d’activer le plugin Chosen (Configuration générale du site > Gestion des plugins), puis de configurer le plugin (Les squelettes > Chosen) en activant l’utilisation de Chosen dans le site public et en spécifiant les éléments de formulaires à améliorer, par exemple select[multiple] pour les listes à sélection multiple (...)

  • Personnaliser en ajoutant son logo, sa bannière ou son image de fond

    5 septembre 2013, par

    Certains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;

  • Ecrire une actualité

    21 juin 2013, par

    Présentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
    Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
    Vous pouvez personnaliser le formulaire de création d’une actualité.
    Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...)

Sur d’autres sites (11574)

  • avformat/mov : Increase support for common encryption.

    7 décembre 2017, par Jacob Trimble
    avformat/mov : Increase support for common encryption.
    

    - Parse schm atom to get different encryption schemes.
    - Allow senc atom to appear in track fragments.
    - Allow 16-byte IVs.
    - Allow constant IVs (specified in tenc).
    - Allow only tenc to specify encryption (i.e. no senc/saiz/saio).
    - Use sample descriptor to detect clear fragments.

    This doesn't support :
    - Different sample descriptor holding different encryption info.
    - Only first sample descriptor can be encrypted.
    - Encrypted sample groups (i.e. seig).
    - Non-'cenc' encryption scheme when using -decryption_key.

    Signed-off-by : Jacob Trimble <modmaker@google.com>
    Signed-off-by : Michael Niedermayer <michael@niedermayer.cc>

    • [DH] libavformat/isom.h
    • [DH] libavformat/mov.c
    • [DH] libavutil/encryption_info.h
    • [DH] tests/fate/mov.mak
    • [DH] tests/ref/fate/mov-frag-encrypted
    • [DH] tests/ref/fate/mov-tenc-only-encrypted
  • AAC stream has errors, but I can't use ffmpeg to show me errors

    25 avril 2019, par Gyula Soós

    I saw some results here on stack related to this issue, but I just can’t make it to work for my life. What is wrong with this command ? How was I supposed to run it ?

    ffmpeg -err_detect explode http://ohnewerbung.ice.infomaniak.ch/radiobasilisk-64-0.aac

    This gives the error : Output file #0 does not contain any stream

    I’m running ffmpeg on a mac if it makes any difference. :/

  • I tried to play the audio on Alexa skill from my S3 Bucket, from the test tab, **it show but in fact, I can't hear any sound

    19 avril 2022, par Siti Mayna

    So I tried to play the audio on Alexa skill from my S3 Bucket, from the test tab, it show but in fact, I can't hear any sound. Another fact is, that I tried to use the sample audio from https://developer.amazon.com/en-US/docs/alexa/custom-skills/ask-soundlibrary.html and it is worked, but why it won't work when it comes from my own S3 Bucket ?

    &#xA;

    Notes :

    &#xA;

    I've tried to test the skill using my mobile phone also.

    &#xA;

    I've tried to encode the audio using FFmpeg.

    &#xA;

    I've tried to use Jovo to convert the audio. https://v3.jovo.tech/audio-converter

    &#xA;

    I don't know how to fix this error.

    &#xA;

    There is no error message on cloud watch.

    &#xA;

    Assumptions :&#xA;There is some problem related to the audio resources or there is more set to play audio from S3 Bucket since the sample audio is working.

    &#xA;

    Steps to reproduce :

    &#xA;

    &#xA;

    Build the interaction model

    &#xA;

    &#xA;

    &#xA;

    Encode the audio to make it Alexa skill friendly (fulfill the requirements, like sample rate, etc), I used and tried all of these :

    &#xA;

    &#xA;

    A :

    &#xA;

    ffmpeg -i  -ac 2 -codec:a libmp3lame -b:a 48k -ar 16000 -write_xing 0 &#xA;

    &#xA;

    B :

    &#xA;

    ffmpeg -i  -ac 2 -codec:a libmp3lame -b:a 48k -ar 24000 -write_xing 0 &#xA;

    &#xA;

    C :

    &#xA;

    ffmpeg -y -i input.mp3 -ar 16000 -ab 48k -codec:a libmp3lame -ac 1 output.mp3&#xA;

    &#xA;

    &#xA;

    Upload the audio resources on S3Bucket&#xA;Audio sample on s3 storage but none of them are produce any sounds

    &#xA;

    &#xA;

    &#xA;

    Use the link and insert it to APLA.json

    &#xA;

    &#xA;

    &#xA;    {&#xA;      "type": "APLA",&#xA;      "version": "0.91",&#xA;      "description": "Simple document that generates speech",&#xA;      "mainTemplate": {&#xA;        "parameters": [&#xA;          "payload"&#xA;        ],&#xA;        "type": "Sequencer",&#xA;        "items": [&#xA;          {&#xA;            "type": "Audio",&#xA;            "source": "https://72578561-d9d8-47b4-811c-cafbcbc5ddb9-us-east-1.s3.amazonaws.com/Media/one-small-step-alexa-24.mp3"&#xA;          }&#xA;        ]&#xA;      }&#xA;    }&#xA;&#xA;

    &#xA;

    notes : I change the link sources based on audio that I tried.

    &#xA;

    &#xA;

    the intent on lambda_function.py :

    &#xA;

    &#xA;

    def _load_apl_document(file_path):&#xA;    # type: (str) -> Dict[str, Any]&#xA;    """Load the apl json document at the path into a dict object."""&#xA;    with open(file_path) as f:&#xA;        return json.load(f)&#xA;&#xA;class LaunchRequestHandler(AbstractRequestHandler):&#xA;    """Handler for Skill Launch."""&#xA;    def can_handle(self, handler_input):&#xA;        # type: (HandlerInput) -> bool&#xA;&#xA;        return ask_utils.is_request_type("LaunchRequest")(handler_input)&#xA;&#xA;    def handle(self, handler_input):&#xA;        # type: (HandlerInput) -> Response&#xA;        logger.info("In LaunchRequestHandler")&#xA;&#xA;        # type: (HandlerInput) -> Response&#xA;        speak_output = "Hello World!"&#xA;        # .ask("add a reprompt if you want to keep the session open for the user to respond")&#xA;&#xA;        return (&#xA;            handler_input.response_builder&#xA;                #.speak(speak_output)&#xA;                .add_directive(&#xA;                        RenderDocumentDirective(&#xA;                            token="pagerToken",&#xA;                            document=_load_apl_document("APLA.json"),&#xA;                            datasources={}&#xA;                        )&#xA;                    )&#xA;                .response&#xA;        )&#xA;

    &#xA;

    &#xA;

    Deploy

    &#xA;

    &#xA;

    &#xA;

    Test it

    &#xA;

    &#xA;

    &#xA;

    The result of the test on my end :&#xA;&#xA;The response for testing

    &#xA;

    &#xA;

    the JSON response :

    &#xA;

    {&#xA;    "body": {&#xA;        "version": "1.0",&#xA;        "response": {&#xA;            "directives": [&#xA;                {&#xA;                    "type": "Alexa.Presentation.APLA.RenderDocument",&#xA;                    "token": "pagerToken",&#xA;                    "document": {&#xA;                        "type": "APLA",&#xA;                        "version": "0.91",&#xA;                        "description": "Simple document that generates speech",&#xA;                        "mainTemplate": {&#xA;                            "parameters": [&#xA;                                "payload"&#xA;                            ],&#xA;                            "type": "Sequencer",&#xA;                            "items": [&#xA;                                {&#xA;                                    "type": "Audio",&#xA;                                    "source": "https://72578561-d9d8-47b4-811c-cafbcbc5ddb9-us-east-1.s3.amazonaws.com/Media/one-small-step-alexa-24.mp3"&#xA;                                }&#xA;                            ]&#xA;                        }&#xA;                    },&#xA;                    "datasources": {}&#xA;                }&#xA;            ],&#xA;            "type": "_DEFAULT_RESPONSE"&#xA;        },&#xA;        "sessionAttributes": {},&#xA;        "userAgent": "ask-python/1.16.1 Python/3.7.12"&#xA;    }&#xA;}&#xA;

    &#xA;

    &#xA;

    On my cloud Watch :&#xA;Cloud Watch

    &#xA;

    &#xA;