Cada segundo se hacen más de 90.000 consultas en Google, cuyo motor de búsqueda acapara el 90% de la cuota de mercado, según el portal de estadísticas Statista. Las cifras estratosféricas muestran el éxito del buscador que muchos confunden con la puerta de internet.
Aun así, la compañía de Mountain View ha decidido perfeccionarlo. El resultado es MUM, siglas de Multitask Unified Model (algo así como Modelo Unificado de Multitarea), una herramienta de inteligencia artificial “mil veces más potente” que la anterior, según la empresa, entrenada en 75 idiomas, que se propone entender con mayor precisión qué quiere saber el usuario y ofrecerle los resultados más relevantes de las fuentes más fiables. La compañía ya está probando la herramienta en las búsquedas que tienen que ver con la pandemia y las vacunas.
Pandu Nayak, vicepresidente del departamento de Google que está encargado de la herramienta de búsqueda, dio detalles sobre la nueva herramienta en una reunión virtual hecha con periodistas de diferentes partes del mundo. Según Nayak, MUM puede comprender y generar lenguaje y es un modelo “mucho más grande con muchos más parámetros y, por lo tanto, capaz de hacer mucho más” que BERT, el algoritmo que establece en la actualidad los resultados que el buscador le muestra a cada usuario.
El desafío de MUM tiene que ver con las diferentes maneras en que los usuarios se refieren a un mismo término. Por ejemplo, Google ha detectado que para buscar información sobre las vacunas contra el Covid-19 se utilizan más de 800 palabras o expresiones diferentes en más de 50 idiomas: de “Coronavaccin Pfizer” a “MRNA-1273” o “Covaccine”. Para una persona, identificar todos estos términos requeriría cientos de horas. Pero con MUM eso se puede hacer en cuestión de segundos.
“La realidad es que la gente tiene necesidades complejas. Y formular consultas a partir de esas necesidades complejas no siempre es tan fácil”, explicó Nayak. De hecho, la firma estima que un usuario realiza hasta ocho consultas, en promedio, para encontrar respuestas a búsquedas complejas. El objetivo es que MUM simplifique este proceso. “Cuando los usuarios acuden a nosotros con una consulta sobre alguna vacuna, debemos reconocer qué están preguntando al respecto y generar la experiencia más adecuada”, explicó Nayak. Google utilizó MUM para identificar correctamente cómo los usuarios se refieren a las diferentes vacunas y, después, intentar ofrecerles la información “más reciente y fiable”.
Otro ejemplo son las distintas formas en las que los usuarios se han referido al SARS-COV-2 durante la pandemia. “Qué es el coronavirus” fue la pregunta que más se hicieron los internautas españoles en las primeras semanas de 2020. También hay muchos productos o asuntos que tienen nombres diferentes según el idioma o el habla de cada país o, incluso, según los matices culturales. Es el caso de soda o refresco, jersey o suéter, o fútbol (según se trate del norteamericano o del europeo). Para superar esta barrera de la lengua, MUM ha sido entrenado “con contenidos de alta calidad” en más de 75 idiomas a la vez. Algo que, según destaca Nayak, sirve para crear sistemas robustos en todas las lenguas y “brinda muchos beneficios a la hora de transferir conocimientos de lenguajes ricos a aquellos pobres en datos”.
El resultado es que MUM no tiene que aprender una nueva capacidad o habilidad en cada nuevo idioma, sino que puede transferir lo que ha aprendido de una lengua a otra. Esto resulta útil para incorporar todo tipo de mejoras “rápidamente y a gran escala”. En el caso de las vacunas, con solo una pequeña muestra de sus nombres oficiales, MUM fue capaz de identificar rápidamente las variaciones entre los diferentes idiomas, según cuenta el experto.
El potencial real de esta herramienta todavía es una incógnita. Pero, a priori, resulta bastante prometedora. Nayak considera que servirá para crear en el mediano plazo formas completamente nuevas de buscar y de analizar la información. “Si tuviera que resumir lo que hace Google en una oración, sería producir resultados relevantes de fuentes autorizadas fiables, siempre que sea posible”, afirmaron en la compañía.
Al ser multimodal, este sistema es capaz de asociar la comprensión de texto a imágenes. Google pretende que en el futuro también funcione con otras modalidades, como el video o el audio. “Podríamos hacer una foto de unas botas de montaña y preguntar leal buscador si esas botas son buenas para escalar el monte Fuji”, ejemplificó Nayak. Como el sistema puede comprender tanto imágenes como textos, lo ideal sería que inmediatamente analizara si esas botas son una buena opción. Podría tener en cuenta, por caso, si cubren o no los tobillos. Google ha asegurado que en los próximos meses y años lanzará nuevas funciones y mejoras de esta herramienta para todos sus productos.
Fuente: La Nación