¿Qué es?
La indexación es el proceso por el que el buscador va rastreando el sitio y va incorporando a su base de datos el contenido de esas URLs.
¿Es importante?
Es MUY importante. La indexación es lo único que puede hacer que tu web, tu trabajo pueda aparecer en Google, toda página que el robot no haya rastreado ni indexado no figurará en los resultados.
Los ojos de un robot
Los buscadores poseen un robot que es una especie de programa que se dedica a rastrear las webs e incorporar lo que cree interesante a la base de datos de su buscador, tanto para indexar nuevas webs como para actualizar los contenidos de su base de datos.
Cantidad de texto
Cuanto más texto incluyamos en cada página los buscadores entenderán mejor el contenido de sus páginas. El contenido en formato texto sigue siendo de más importante para la optimización Web. Por supuesto, no debemos por eso rellenar las páginas con c0ntenido no significativo, repetitivo ni copiado de otras webs o blogs.
Facilitar la indexación: lo básico
Los buscadores no indexan todo lo que recorren, sólo indexan lo que creen oportuno. Para mejorar nuestra indexación hay que conseguir que los robots pasen a menudo por nuestras páginas por lo que a más pasadas que de más probabilidades de que las acabe indexando. Para aumentar la frecuencia de paso de los robots por nuestra web hay que conseguir links entrantes y actualizar a menudo nuestra web.
Las etiquetas de título, descripción y palabras clave
Incluir estas etiquetas en los metatags es fundamental. Ayuda a los buscadores a clasificar cada página de nuestro sitio web. Y por otro lado da informa al usuario en los resultados de las búsquedas del contenido de la página. Lo que presentan los buscadores en las búsquedas es el título y la descripción que hayamos incluido en los metatags. Si no lo encuentra presentará otro texto que encuentre en la página que puede no corresponderse con lo que nos interesa que se vea.
Otras descripciones
- Los textos descriptivos en las imágenes ayudan a Google a indexar la imagen
- Descripción de vídeos y audios en texto
URLs dinámicas: Las URLs deben ser amigables y semánticas
Para facilitar la indexación se puede empezar por evitar o arreglar las variables en las URLs (URLs dinámicas) que por ejemplo puede generar el PHP. Estas variables hacen que el script muestre una u otra información en función de estas variables y a todos los efectos se consideran páginas diferentes.
Existen muchos casos donde aumentan exageradamente el número de variables, dificultando cada vez más la indexación, ya que si bien los buscadores pueden indexar páginas con varias variables, les es más fácil si no las tuviese. Para servidores que corran sobre Apache existe un mod llamado mod_rewrite que sirve para reescribir URLs, mediante el cuál y con un fichero .htaccess se puede convertir esa URL a ojos de los buscadores en otra mucho más amigable y semántica.
En los gestores de contenidos actuales, por ejemplo WordPress, existen plugins que convierten las urls dinámicas a semánticas.
Más atractiva a los ojos de los buscadores. Consulta tu hosting para averiguar sobre la disponibilidad de este módulo. Ten en cuenta que muchos scripts conocidos incorporan módulos y sistemas para convertir URLs dinámicas en estáticas, por lo que te evitarás el trabajo a veces de hacerte tu propio sistema.
Google Sitemaps
Aparte de esto existe para Google un servicio llamado Google Sitemaps que está dando muy buenos resultados en cuánto a mejorar la indexación. Existen plugins para los gestores de contenidos que generan automáticamente el fichero del sitemap y se lo envían a Google con la frecuencia que deseemos.
Robots.txt
El robots.txt es un fichero destinado al uso de los buscadores. Mediante el uso de este fichero el encargado de la web le ordena a los buscadores ciertas cosas, como prohibirles el acceso a ciertas carpetas o ficheros para evitar que los buscadores los indexen o prohibirles un excesivo acceso a la web, por ejemplo. En todo caso la existencia de este fichero en nuestro servidor no mejorará ni nuestra indexación ni posiciones.
El uso inadecuado de este fichero puede provocar desastres en nuestras posiciones en Google.
Y por último:
- Evitar el uso de frames
- Utilizar un código limpio. Aquí os dejamos unas herramientas para chequear que el código sea válido
- Evitar direcciones IP como dominios
- Incluir un mapa de sitio con todas las páginas ordenadas según la estructura de la web