About Me

header ads

NVIDIA AI en Microsoft Azure Machine Learning para impulsar sugerencias gramaticales en Microsoft Word

Imagen: NVIDIA – 2020

Se ha dicho que la buena escritura proviene de la edición. Afortunadamente para los lectores exigentes de todo el mundo, Microsoft está poniendo un editor de gramática con tecnología de inteligencia artificial al alcance de millones de personas.
 
Como cualquier buen editor, es rápido y conocedor. Esto se debe a que los refinamientos gramaticales de Microsoft Editor en Microsoft Word para la web ahora pueden aprovechar NVIDIA Triton Inference Server, ONNX Runtime y Microsoft Azure Machine Learning , que es parte de Azure AI , para brindar esta experiencia inteligente.
 
Al hablar en la Conferencia de Tecnología de GPU digital , el CEO de NVIDIA, Jensen Huang, anunció la noticia durante la presentación principal el 5 de octubre.
 
IA cotidiana en la oficina
Microsoft tiene la misión de sorprender a los usuarios de las aplicaciones de productividad de Office con la magia de la IA. Las nuevas experiencias que ahorran tiempo incluirán sugerencias gramaticales en tiempo real, respuestas a preguntas dentro de los documentos (piense en la búsqueda de documentos en Bing más allá de la “coincidencia exacta”) y texto predictivo para ayudar a completar oraciones.
 
Estas experiencias que aumentan la productividad solo son posibles con el aprendizaje profundo y las redes neuronales. Por ejemplo, a diferencia de los servicios basados ​​en la lógica tradicional basada en reglas, cuando se trata de corregir la gramática, el Editor de Word para la web es capaz de comprender el contexto de una oración y sugerir las opciones de palabras adecuadas.
 
Y estos modelos de aprendizaje profundo, que pueden involucrar cientos de millones de parámetros, deben ser escalables y proporcionar inferencias en tiempo real para una experiencia de usuario óptima. Se espera que el modelo de inteligencia artificial de Microsoft Editor para la revisión gramatical en Word en la web solo maneje más de 500 mil millones de consultas al año.
 
La implementación a esta escala podría hacer explotar los presupuestos de aprendizaje profundo. Afortunadamente, las funciones de ejecución de modelos simultáneos y de procesamiento por lotes dinámico de NVIDIA Triton, a las que se puede acceder a través de Azure Machine Learning, redujeron el costo en aproximadamente un 70% y lograron un rendimiento de 450 consultas por segundo en una sola GPU NVIDIA V100 Tensor Core , con una respuesta de menos de 200 milisegundos. hora. Azure Machine Learning proporcionó la escala y las capacidades necesarias para administrar el ciclo de vida del modelo, como el control de versiones y la supervisión.
 
Inferencia de alto rendimiento con Triton en Azure Machine Learning
 
Los modelos de aprendizaje automático han aumentado de tamaño y las GPU se han vuelto necesarias durante el entrenamiento y la implementación del modelo. Para la implementación de IA en producción, las organizaciones buscan soluciones de servicio de inferencia escalables, soporte para múltiples backends de marco, utilización óptima de GPU y CPU y gestión del ciclo de vida del aprendizaje automático.
 
La pila NVIDIA Triton y ONNX Runtime en Azure Machine Learning ofrece inferencias escalables de alto rendimiento. Los clientes de Azure Machine Learning pueden aprovechar el soporte de Triton para múltiples marcos, inferencia en tiempo real, por lotes y de transmisión, procesamiento por lotes dinámico y ejecución concurrente.
 
Escribir con IA en Word
 
El autor y poeta Robert Graves fue citado diciendo: "No hay buena escritura, solo buena reescritura". En otras palabras, escriba y luego edite y mejore.
 
El editor en Word para la web le permite hacer ambas cosas simultáneamente. Y aunque Editor es la primera función de Word que obtiene la velocidad y la amplitud de los avances habilitados por Triton y ONNX Runtime, es probable que sea solo el comienzo de más por venir.


Publicar un comentario

0 Comentarios