El modo en que implementemos el código HTML de nuestras páginas web tiene mucha importancia sobre la capacidad de un robot para leerla e indexar sus contenidos, y esto puede afectar a nuestro posicionamiento en Internet.
Al los robots sólo le interesa el texto normal de nuestras páginas. Cualquier otra complicación en la tecnología, como Javascript, o Flash puede impedirlo en encontrar o indexar los contenidos que buscan.
Esto no significa que debemos abandonar la idea de tener un sitio atractivo o fácil de manejar con el empleo de, por ejemplo, una navegación de javascript. Simplemente, hay que tener en cuenta que la simplicidad para el usuario y la simplicidad para el robot a menudo van de la mano. Se puede encontrar un compromiso entre código limpio y vistosidad.
Por otro lado, si los robots encuentran fallos en el código HTML también se lo ponemos más difícil.
Las etiquetas incompletas, conflictos en el código o un exceso de javascript pueden obstruir al robot a la hora de hacer su trabajo. Lo que suele pasar es que el robot abandone la página defectuosa.
Para evitar este tipo de problemas, la mejor manera de crear nuestras páginas es escribir el código «a mano». Como las funciones WYSWIG de los editores HTML como MS FrontPage ™ o Macromedia Dreamweaver™ suelen añadir líneas de código propias, es mejor no utilizarlas.
También tenemos que tener en cuenta que ciertos navegadores son muy tolerantes a la hora de aceptar el código HTML con fallos. Al confeccionar nuestras páginas debemos probarlas con diferentes navegadores.
Para asegurarnos de utilizar un código limpio existen diferentes herramientas que pueden orientarnos en descubrir lo que hacemos mal: