Recherche avancée

Médias (91)

Autres articles (75)

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

  • MediaSPIP Core : La Configuration

    9 novembre 2010, par

    MediaSPIP Core fournit par défaut trois pages différentes de configuration (ces pages utilisent le plugin de configuration CFG pour fonctionner) : une page spécifique à la configuration générale du squelettes ; une page spécifique à la configuration de la page d’accueil du site ; une page spécifique à la configuration des secteurs ;
    Il fournit également une page supplémentaire qui n’apparait que lorsque certains plugins sont activés permettant de contrôler l’affichage et les fonctionnalités spécifiques (...)

  • Le profil des utilisateurs

    12 avril 2011, par

    Chaque utilisateur dispose d’une page de profil lui permettant de modifier ses informations personnelle. Dans le menu de haut de page par défaut, un élément de menu est automatiquement créé à l’initialisation de MediaSPIP, visible uniquement si le visiteur est identifié sur le site.
    L’utilisateur a accès à la modification de profil depuis sa page auteur, un lien dans la navigation "Modifier votre profil" est (...)

Sur d’autres sites (8591)

  • dnn : add function type for model

    7 février 2021, par Guo, Yejun
    dnn : add function type for model
    

    So the backend knows the usage of model is for frame processing,
    detect, classify, etc. Each function type has different behavior
    in backend when handling the input/output data of the model.

    Signed-off-by : Guo, Yejun <yejun.guo@intel.com>

    • [DH] libavfilter/dnn/dnn_backend_native.c
    • [DH] libavfilter/dnn/dnn_backend_native.h
    • [DH] libavfilter/dnn/dnn_backend_openvino.c
    • [DH] libavfilter/dnn/dnn_backend_openvino.h
    • [DH] libavfilter/dnn/dnn_backend_tf.c
    • [DH] libavfilter/dnn/dnn_backend_tf.h
    • [DH] libavfilter/dnn_filter_common.c
    • [DH] libavfilter/dnn_filter_common.h
    • [DH] libavfilter/dnn_interface.h
    • [DH] libavfilter/vf_derain.c
    • [DH] libavfilter/vf_dnn_processing.c
    • [DH] libavfilter/vf_sr.c
  • lavfi/dnn_backend_tensorflow : support detect model

    6 mai 2021, par Ting Fu
    lavfi/dnn_backend_tensorflow : support detect model
    

    Signed-off-by : Ting Fu <ting.fu@intel.com>

    • [DH] libavfilter/dnn/dnn_backend_tf.c
    • [DH] libavfilter/vf_dnn_detect.c
  • lavf/dnn : dump OpenVINO model input/output names to OVMdel struct.

    21 juillet 2022, par Ting Fu
    lavf/dnn : dump OpenVINO model input/output names to OVMdel struct.
    

    Dump all input/output names to OVModel struct. In case other funcs use
    them for reporting errors or locating issues.

    Signed-off-by : Ting Fu <ting.fu@intel.com>

    • [DH] libavfilter/dnn/dnn_backend_openvino.c