Integración de Funcionalidades¶
Este capítulo le presenta cómo integrar el escritorio remoto de FIRERAP y sus capacidades relacionadas. Puede integrarlo usted mismo en su página de frontend para realizar operaciones, visualizaciones y otras funciones. No lo presentaremos aquí en este capítulo; puede dirigirse a nuestra documentación de APIFOX para verlo y probarlo. Sin embargo, necesitamos presentarle algunas configuraciones previas y otra información básica.
Sugerencia
Configuración Previa¶
Para facilitar las pruebas de la API, primero asegúrese de que el dispositivo esté conectado a la computadora actual a través de USB y que el dispositivo no tenga habilitada la verificación de certificados de inicio de sesión (https). Después de completar estos dos pasos, también deberá completar la configuración relevante en la plataforma apifox. Dado que involucra interfaces ws, necesitará instalar el cliente de escritorio de apifox (no la versión web) e importar el proyecto correspondiente en su cliente. No le explicaremos cómo instalar o importar; por favor, descúbralo por su cuenta.
Video en Tiempo Real¶
El video en tiempo real se transmite utilizando Websocket. El video admite dos formatos de transmisión: uno es MJPEG (MOTION JPEG) y el otro es H.264 NALU. Entre ellos, el uso de MJPEG es el más simple. El contenido real transmitido por MJPEG son capturas de pantalla del dispositivo actual; si la transmisión es lo suficientemente rápida, se convierte en una pantalla dinámica en tiempo real del dispositivo. El único procesamiento que necesita hacer es dibujar cada fotograma recibido a través de Ws en la pantalla en formato JPEG. El otro, H.264, requiere un conocimiento básico relativamente mayor de su parte, porque antes de renderizar en el canvas, debe realizar un paso de decodificación. Puede buscar por su cuenta o integrar un decodificador h264 existente para decodificar y dibujar.
La diferencia entre H264 y MJPEG es que, en comparación, H264 puede reducir el tráfico en al menos la mitad y es más rápido. Por supuesto, no es aplicable a todos los dispositivos; el rendimiento de codificación H264 de algunos dispositivos puede no ser alto. En este caso, debería usar MJPEG para la transmisión. Por supuesto, MJPEG también tiene sus desventajas; como cada fotograma es una imagen pura, requiere un mayor ancho de banda.
Control Táctil en Tiempo Real¶
El control táctil en tiempo real también se transmite utilizando Websocket. No tiene nada de especial; solo necesita enviar las tres operaciones: presionar, mover y levantar, en un formato específico. Puede hacerlo a través de eventos del lado de la web como mousedown, up, etc. Los datos principales transmitidos son el evento y las coordenadas. Lo único a tener en cuenta aquí es que las coordenadas deben ser convertidas por usted utilizando el tamaño del canvas y de la pantalla real, para calcular las coordenadas en la pantalla real que corresponden a las coordenadas de la operación del usuario en el canvas.
Operaciones de Teclas¶
Las operaciones de teclas son, en comparación, la parte más simple. Solo necesita realizar una solicitud POST a la API correspondiente con un formato específico. Las operaciones de teclas le permiten controlar las teclas de navegación del dispositivo y realizar entradas de texto en inglés.
Terminal de Comandos¶
La terminal de comandos utiliza Websocket. Necesitará usar tecnologías como xterm.js para la integración. Solo necesita formatear la entrada y la salida en un formato específico según la documentación de la API y enviarla o solicitar la salida a xterm.