Google no puede acceder a los archivos CSS y JS de mi web

Desde hace pocos días, seguramente hayas recibido en tu e-mail un correo de Google alertándote sobre la imposibilidad de que su robot accediera a los archivos CSS y JavaScript de tu web.
Concretamente el mensaje del correo es este:
El robot de Google no puede acceder a los archivos CSS y JS de http://tusitio.com
Tranquil@, esto le ha pasado a muchos webmasters en todo el mundo, en webs basadas en algún CMS como WordPress, PrestaShop, Joomla, etc, así como en diseños propios en HTML.
¿Pero por qué Google no puede acceder a los archivos CSS y JS de mi web?
Nos vamos a centrar en la causa más probable de que te aparezca este mensaje en tu cuenta de Google Search Console (anteriormente conocida como Webmaster Tools).
Pero primero, ¿por qué quiere Google acceder a estos archivos, si lo que creíamos que le importaba era solo el contenido de nuestra web?.
Seguramente sabes que los archivos CSS y JS son los responsables del diseño único e irrepetible de tu página web, aparte de su correcta adaptación a dispositivos móviles y distintas funcionalidades. Pues este es uno de los motivos que tiene Google para rastrear tus archivos CSS y JS, para puntuar la calidad con la que se muestra tu sitio a los visitantes online.
Además, cada vez se utilizan más archivos de estos tipos que muestran contenido o lo gestionan, por lo que Google podrá acceder a tus archivos… solo si le dejas (esta es la clave de la cuestión).
¿Cómo permito al robot de Google rastrear mis archivos CSS y JS?
Como hemos avanzado hace un par de líneas, para solucionar este problema lo único que tienes que hacer es permitir a los robots acceder a estos archivos. Y esto se controla editando el conocido archivo robots.txt.
Hasta ahora, la mayoría de webmasters y la mayoría de plugins o módulos, para mejorar el SEO de nuestra web modificábamos (o creábamos) el archivo robots.txt, añadiendo líneas en las que especificábamos que los robots no podían acceder a determinadas carpetas de nuestros archivos web. Entre estas carpetas se encontraban las que contenían los archivos CSS y JavaScript, ya que no tenían contenido (legible para el usuario), pero al cambiar esto, si queremos que nuestras webs estén a la última con nuestro querido Google (esto provoca serios debates entre webmasters a favor y en contra de adular a la gran G), deberemos acatar órdenes de arriba y dejar la puerta de nuestras carpetas abierta de par en par a las arañas de los motores de búsqueda… espero que no tengas aracnofobia.
¿Como edito mi archivo robots.txt?
El archivo robots.txt se encuentra en la carpeta raíz donde alojas tus archivos en tu hosting o servidor web. Puedes acceder a él desde el apartado de gestión de archivos web del cpanel de tu hosting o mediante FTP usando programas como FileZilla (configurado con tu servidor, usuario y contraseña, claro).
Una vez lo localices, ábrelo con el bloc de notas o cualquier software de edición como Notepad++, localiza las líneas donde se impide el rastreo de las carpetas con los archivos CSS y JS y permite a los robots que accedan a ellas borrando esas líneas.
Pongo como ejemplo WordPress. En este conocido CMS se suelen escribir estas dos líneas en nuestro archivo robots.txt, aparte de muchas más:
User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/
La línea User-agent: * especifica a qué robot van dirigidas las especificaciones inmediatamente inferiores a ella. Al poner un asterisco, incluimos a todos los robots, sin diferenciar entre el de Goolge, Yahoo, etc.
La carpeta wp-admin contiene la información necesaria para la administración de nuestra web, por lo que la mantendremos en Disallow.
Es la carpeta wp-includes la que contiene estos archivos CSS y JS, por lo que si queremos solucionar el “error” que nos aparece en Google Search Console, deberemos borrar la línea que impide el paso a esta carpeta.
En el caso de PrestaShop, el problema lo tenemos cuando impedimos a los rastreadores entrar en la carpeta /modules. Por lo que haremos lo mismo que en caso anterior.
Con esto, el problema debería estar solucionado.
Una vez hecho esto, podemos acceder a nuestra cuenta de Google Search Console y verificar que ya no aparecen estos errores, y una vez comprobado, mandaremos a indexar de nuevo nuestra web desde el apartado Rastreo > Rastrear como Google.