Intégration des fonctionnalités¶
Ce chapitre vous explique comment intégrer le bureau à distance FIRERAP et ses fonctionnalités associées. Vous pouvez l'intégrer vous-même dans votre page front-end pour des opérations, des affichages et diverses autres fonctions. Nous n'entrerons pas dans les détails ici ; vous pouvez consulter notre documentation APIFOX pour voir et tester. Cependant, nous devons vous présenter quelques configurations préalables et d'autres informations de base.
Astuce
Configuration préalable¶
Pour faciliter vos tests d'API, veuillez d'abord vous assurer que l'appareil est connecté à l'ordinateur actuel via USB et que la vérification du certificat de connexion (https) est désactivée sur l'appareil. Après avoir effectué ces deux étapes, vous devrez également configurer la plateforme Apifox. Comme cela implique des interfaces WebSocket (ws), vous devez installer le client de bureau Apifox (pas la version web) et importer le projet correspondant dans votre client. Nous n'expliquerons pas comment installer ou importer ; veuillez le découvrir par vous-même.
Vidéo en temps réel¶
La vidéo en temps réel est transmise via Websocket et prend en charge deux formats de transmission : MJPEG (MOTION JPEG) et H.264 NALU. Parmi eux, MJPEG est le plus simple à utiliser. Le contenu réel transmis par MJPEG est une capture d'écran de l'appareil. Si la transmission est suffisamment rapide, cela devient un écran d'appareil dynamique en temps réel. Le seul traitement que vous devez effectuer est de dessiner chaque trame reçue via le WebSocket sur l'écran au format JPEG. L'autre format, H.264, exige des connaissances de base plus approfondies de votre part, car avant le rendu sur le canvas, vous devez effectuer une étape de décodage. Vous pouvez rechercher ou intégrer un décodeur H.264 existant pour le décodage et le dessin.
La différence entre H.264 et MJPEG est que H.264 peut réduire le trafic réseau d'au moins la moitié et est plus rapide. Bien sûr, il ne convient pas à tous les appareils. Les performances d'encodage H.264 de certains appareils peuvent être faibles ; dans ce cas, vous devriez utiliser MJPEG pour la transmission. Naturellement, MJPEG a aussi ses inconvénients : comme chaque trame est une image pure, il exige une bande passante plus élevée.
Contrôle tactile en temps réel¶
Le contrôle tactile en temps réel est également transmis via Websocket. Il n'y a rien de particulièrement complexe ; il vous suffit d'envoyer les trois opérations : appui, déplacement et relâchement, dans un format spécifique. Vous pouvez le faire via les événements du navigateur tels que mousedown, mouseup, etc. Les données principales transmises sont l'événement et les coordonnées. La seule chose à noter ici est que vous devez convertir les coordonnées. En utilisant la taille du canvas et de l'écran réel, vous devez calculer les coordonnées sur l'écran réel qui correspondent aux coordonnées de l'action de l'utilisateur sur le canvas.
Opérations des touches¶
Les opérations des touches sont relativement la partie la plus simple. Il vous suffit d'envoyer une requête POST à l'API correspondante dans un format spécifique. Les opérations des touches vous permettent de contrôler les touches de navigation de l'appareil ainsi que d'effectuer une saisie de texte en anglais de base.
Terminal de commande¶
Le terminal de commande utilise Websocket. Vous devrez utiliser des technologies telles que xterm.js pour l'intégration. Il vous suffit de formater l'entrée et la sortie dans le format spécifié selon la documentation de l'API, puis de les envoyer ou de demander à xterm de les afficher.