Se ha dicho que la buena escritura proviene de la edición.
Afortunadamente para los lectores exigentes de todo el mundo, Microsoft está
poniendo un editor de gramática con tecnología de inteligencia artificial al
alcance de millones de personas.
Como cualquier buen editor, es rápido y conocedor. Esto se debe a que
los refinamientos gramaticales de Microsoft Editor en Microsoft Word para la
web ahora pueden aprovechar NVIDIA Triton Inference Server, ONNX Runtime y
Microsoft Azure Machine Learning , que es parte de Azure AI , para brindar esta
experiencia inteligente.
Al hablar en la Conferencia de Tecnología de GPU digital , el CEO de
NVIDIA, Jensen Huang, anunció la noticia durante la presentación principal el 5
de octubre.
IA cotidiana en la oficina
Microsoft tiene la misión de sorprender a los usuarios de las
aplicaciones de productividad de Office con la magia de la IA. Las nuevas
experiencias que ahorran tiempo incluirán sugerencias gramaticales en tiempo
real, respuestas a preguntas dentro de los documentos (piense en la búsqueda de
documentos en Bing más allá de la “coincidencia exacta”) y texto predictivo
para ayudar a completar oraciones.
Estas experiencias que aumentan la productividad solo son posibles con
el aprendizaje profundo y las redes neuronales. Por ejemplo, a diferencia de
los servicios basados en la lógica tradicional basada en reglas, cuando se
trata de corregir la gramática, el Editor de Word para la web es capaz de
comprender el contexto de una oración y sugerir las opciones de palabras
adecuadas.
Y estos modelos de aprendizaje profundo, que pueden involucrar cientos
de millones de parámetros, deben ser escalables y proporcionar inferencias en
tiempo real para una experiencia de usuario óptima. Se espera que el modelo de
inteligencia artificial de Microsoft Editor para la revisión gramatical en Word
en la web solo maneje más de 500 mil millones de consultas al año.
La implementación a esta escala podría hacer explotar los presupuestos
de aprendizaje profundo. Afortunadamente, las funciones de ejecución de modelos
simultáneos y de procesamiento por lotes dinámico de NVIDIA Triton, a las que
se puede acceder a través de Azure Machine Learning, redujeron el costo en
aproximadamente un 70% y lograron un rendimiento de 450 consultas por segundo
en una sola GPU NVIDIA V100 Tensor Core , con una respuesta de menos de 200
milisegundos. hora. Azure Machine Learning proporcionó la escala y las
capacidades necesarias para administrar el ciclo de vida del modelo, como el
control de versiones y la supervisión.
Inferencia de alto rendimiento con Triton en Azure Machine Learning
Los modelos de aprendizaje automático han aumentado de tamaño y las GPU
se han vuelto necesarias durante el entrenamiento y la implementación del
modelo. Para la implementación de IA en producción, las organizaciones buscan
soluciones de servicio de inferencia escalables, soporte para múltiples
backends de marco, utilización óptima de GPU y CPU y gestión del ciclo de vida
del aprendizaje automático.
La pila NVIDIA Triton y ONNX Runtime en Azure Machine Learning ofrece
inferencias escalables de alto rendimiento. Los clientes de Azure Machine
Learning pueden aprovechar el soporte de Triton para múltiples marcos,
inferencia en tiempo real, por lotes y de transmisión, procesamiento por lotes
dinámico y ejecución concurrente.
Escribir con IA en Word
El autor y poeta Robert Graves fue citado diciendo: "No hay buena
escritura, solo buena reescritura". En otras palabras, escriba y luego
edite y mejore.
El editor en Word para la web le permite hacer ambas cosas
simultáneamente. Y aunque Editor es la primera función de Word que obtiene la
velocidad y la amplitud de los avances habilitados por Triton y ONNX Runtime,
es probable que sea solo el comienzo de más por venir.
0 Comentarios