..."/>

SEO: La importancia de permitir la indexación de archivos Javascript y CSS

SEO: La importancia de permitir la indexación de archivos Javascript y CSS

Recientemente algunos webmasters empezaron a recibir una notificación a través de Google Search Console (antes Google Webmaster Tools) que les recomienda conceder acceso a Googlebot a los archivos JavaScript, CSS, con el fin de que Google optimice el procesamiento y la indexación de sus sitios web. Algunos suscriptores de eMarketingHoy nos han preguntado cuál es nuestra recomendación al respecto.

El mensaje en mención, explica que: ‘El robot de Google no puede acceder a los archivos CSS y JS de susitio.com‘ y recomienda identificar los recursos bloqueados y proceder a conceder acceso a Googlebot, el crawler que se encarga de barrer el contenido del sitio web, que posteriormente es mostrado en los resultados orgánicos de la búsqueda de Google:

El robot de Google no puede acceder a los archivos CSS y JS de susitio.com

El robot de Google no puede acceder a los archivos CSS y JS de susitio.com

Aunque esta notificación es algo relativamente nuevo para muchos, cabe aclarar que dicho ajuste se incluyó en las directrices de Google para Webmasters a partir de octubre de 2014.

En ellas, se explica que para optimizar el procesamiento y la indexación de un sitio, es muy recomendable permitir el acceso de Googlebot a los archivos JavaScript, CSS y de imagen que utilicen las páginas. Esto quiere decir que desactivar el rastreo de los archivos JavaScript o CSS en el archivo robots.txt de un sitio, puede impactar directamente el posicionamiento orgánico del sitio y podría resultar en una clasificación inferior al nivel óptimo.

El ajuste llegó como resultado de la modernización de las estrategias usadas por Google para llevar a cabo la indexación de contenidos. En el pasado, los sistemas de indexación de Google funcionaban de manera muy similar a los antiguos navegadores de solo texto, como Lynx. Sin embargo, desde el 2014, Google anunció que con el fin de hacer que su sistema de indexación fuera más exacto, rastrearía el contenido de un sitio web tal como lo hace un navegador web moderno. Es decir, Al igual que los navegadores modernos, el motor de procesamiento de Google puede no ser compatible con todas las tecnologías que utiliza una página por lo que resulta de mucha importancia asegurar que el diseño del sitio web cumpla con estándares básicos para navegadores modernos como Firefox o Chrome.

En concreto, con el fin de adherirse a las prácticas recomendadas por Google, es importante que su sitio web:

  • Permita que se rastreen todos los elementos que conforman el frontend, incluyendo los archivos CSS y de JavaScript. Tenga en cuenta que Google procesa las páginas web mediante el HTML de las páginas y sus elementos, como las imágenes, CSS y los archivos de JavaScript.
  • Facilite a los robots de búsqueda el rastreo del sitio sin identificadores de sesión ni argumentos que efectúen un seguimiento de su ruta por el sitio.
  • Cuente con un archivo robots.txt en el servidor web. Este archivo le indica a los rastreadores qué directorios se pueden, o no, rastrear.  Es recomendable que por medio de este mismo archivo se  evite el rastreo de páginas de resultados de búsqueda u otras páginas generadas automáticamente que carecen de valor para los usuarios procedentes de motores de búsqueda.

Por último, para comprobar que su sitio web está siendo correctamente indexado por Google utilice las herramientas Explorar como Google y Probador de robots.txt de Google Search Console, antes conocido como Google Webmaster Tools.

Advertisements

 Fabio Rodríguez, director de la firma consultora  eMarketing Colombia,, es un especialista en mercadeo digital y nuevos medios., co-fundador y ex-gerente general de la agencia digital Intent Agency. Fabio ha sido reconocido como empresario destacado por la Escuela de Administración y Negocios - EAN y ha ayudado a muchas empresas a maximizar los beneficios de los canales digitales...  Seguir leyendo

Relacionado con esta lectura:

Top