Qué es BERT
El pasado 25 de octubre de 2019 el Vicepresidente de Google, Pandu Nayak, presentó ante la comunidad un artículo acerca de la nueva actualización para el motor de búsqueda de Google conocida como BERT, por sus siglas en inglés Bidirectional Encoder Representations from Transformers. Este sistema es de tipo software libre (Open-Source) y fue lanzado por la compañía desde noviembre de 2018 Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing.
“Por ejemplo, la palabra «bank» tendría la misma representación sin contexto en «bank account» y «bank of the river». Los modelos contextuales en cambio generan una representación de cada palabra que se basa en las otras palabras de la oración. Por ejemplo, en la oración “I accessed the bank account,” un modelo contextual unidireccional representaría «bank» basado en «I accessed the» pero no «account.» Sin embargo, BERT representa «bank» usando su contexto anterior y el siguiente – «I accessed the … account» – comenzando desde el fondo de una red neuronal profunda, haciéndola profundamente bidireccional.”
El modelo BERT es un avance en cuanto a los modelos anteriores ya que en vez de analizar una búsqueda “palabra por palabra” puede considerar el contenido de la oración completa considerando el contexto de la palabra escrita en cuanto a las que le preceden y anteceden.
Según comenta la empresa el avance que significa BERT no requirió sólo un cambio en el Software sino que importantes avances en el Hardware:
“Pero no solo los avances en software pueden hacer esto posible: también necesitábamos nuevo hardware. Algunos de los modelos que podemos construir con BERT son tan complejos que superan los límites de lo que podemos hacer con el hardware tradicional, por lo que, por primera vez, estamos utilizando los últimos TPU en la nube para servir resultados de búsqueda y obtener información más relevante rápidamente .”
Antecedentes
BERT es la actualización más importante que realiza la empresa en cuanto a funcionamiento de su motor de búsqueda desde que lanzara hace 5 años RankBrain, un algoritmo que utiliza Inteligencia Artificial para entregar mejores resultados de búsqueda, que lee una palabra o frase con la que no está familiarizada y puede hacer suposiciones sobre qué palabra o frase puede tener un significado similar y filtrar los resultados de acuerdo a esa información.
“En una entrevista de 2015, Google comentó que RankBrain es el tercer factor más importante en el algoritmo de clasificación junto con los enlaces y el contenido.”
Google Turning Its Lucrative Web Search Over to AI Machines
Ejemplos de cómo impacta BERT en los Resultados de Búsqueda de Google
Al aplicar los modelos BERT a las búsquedas el motor de búsquedas puede hacer un trabajo mucho más preciso para encontrar información útil particularmente para consultas más extensas o en las que las preposiciones juegan un papel significativo dentro del contexto de la misma. La compañía afirma que «BERT ayudará a Search a comprender mejor una de cada 10 búsquedas en los EE.UU.»
Usando la frase «puedes conseguir medicamentos para alguien en la farmacia» tradicionalmente obtendría como resultados artículos relacionados con «completar una prescripción«, con el uso de BERT el modelo toma en cuenta el uso de «para» y muestra resultados relacionados con «puede un paciente hacer que un amigo o familiar recoja una receta«.
Cómo va a impactar a el SEO de mi página web
Bueno, como muchas cosas en la vida la respuesta es: depende. El software está funcionando actualmente en una docena de países, entre ellos Estados Unidos.
“También estamos aplicando BERT para mejorar la búsqueda de personas en todo el mundo. Una característica poderosa de estos sistemas es que pueden tomar aprendizajes de un idioma y aplicarlos a otros. Por lo tanto, podemos tomar modelos que aprenden de las mejoras en inglés (un idioma donde existe la gran mayoría del contenido web) y aplicarlos a otros idiomas. Esto nos ayuda a obtener mejores resultados en los muchos idiomas en los que se ofrece la búsqueda.
Para los fragmentos destacados, estamos utilizando un modelo BERT para mejorar los fragmentos destacados en las dos docenas de países donde esta función está disponible, y vemos mejoras significativas en idiomas como el coreano, el hindi y el portugués.”
En caso de tener una web que esté dentro de los países en los que está habilitado, si tu contenido es de calidad y le es de gran uso a los usuarios lo más probable es que tu SEO no se vea afectado ya que el motor de búsqueda seguirá interpretando el contenido de manera correcta.
Lo importante es comprender que Google está mejorando la forma en que interpreta el lenguaje natural por lo que tú sigue escribiendo como lo has hecho hasta ahora, de forma natural y significativa para tus usuarios y el tio Google se seguirá esforzando por entenderte mejor.
Particularmente pienso que es un avance impresionante, en muchos casos me ha pasado que para escribir un contenido optimizado para SEO en mi web omito algunas preposiciones y demás con el objetivo de aparecer en más resultados de búsqueda, ahora podré hacerlo de una manera más natural generando una mejor experiencia para los usuarios.
Referencias
Understanding searches better than ever before
Google Turning Its Lucrative Web Search Over to AI Machines
Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing