Google ha actualizado su servicio Meet para que consuma menos recursos de un ordenador al utilizar su unidad de procesamiento gráfico (GPU, por sus siglas en inglés) en lugar de la unidad central de procesamiento (CPU).
La compañía de Mountain View ha destacado la creciente relevancia de la videoconferencia en los últimos años en un comunicado publicado en su blog de Inteligencia Artificial (IA).
Como resultado, Google ha incluido nuevas funciones en su servicio Meet, como el de implementar el procesamiento en la nube para mejorar los efectos de fondo y reducir el consumo del dispositivo durante las videollamadas.
Estos efectos son posibles gracias a los modelos de aprendizaje automático que Google Meet ejecuta directamente desde el navegador del usuario sin necesidad de instalar ‘software’ adicional.
Hasta el momento, la CPU de un ordenador se ha encargado de procesar estos modelos de aprendizaje automático de Google. Con la última actualización de Meet, la GPU será la que realice esta tarea.
Para ello, la compañía ha implementado en esta actualización un nuevo modelo de segmentación basado en imágenes de entrada de alta resolución (HD), en lugar de en imágenes de baja resolución, como hasta ahora. Un cambio que permite doblar la resolución respecto al anterior modelo, según Google.
Sin embargo, sus cálculos apuntan que al doblar la resolución de la entrada se cuadruplica el coste computacional. Un peaje que la CPU de muchos dispositivos no puede pagar al estar limitada por la segmentación en HD que debe ejecutar en paralelo.
Ante este contexto, Google Meet empezará a apoyarse en la GPU de los equipos de gama media y alta, que integran componentes más potentes. La tecnológica cree que los núcleos de rendimiento bajo contenidos en esta unidad son ideales para procesar modelos convulacionales de alta resolución lo que a su vez reducirá el uso de recursos del ordenador.