Estimados amigos,
Sin querer plantear consultas específicamente relacionadas con SEO (que entendemos no son objetivo de este foro), nos interesa especialmente conocer vuestra opinión sobre el comportamiento de los campos Metadata Options dentro de las opciones de artículos en Joomla!, y si puede o no afectarnos en eventuales penalizaciones de Google.
Tanto en la página principal como en el blog de la web, hacemos muy breves extractos de artículos publicados en webs externas (a modo de referencia), incorporando al final de cada extracto un vínculo directo al artículo original del autor, así como la URL principal del autor (no todo el path del artículo externo) en los campos Author, Content Rights y External Reference de las opciones Metadata Options.
¿Evitaría esto una penalización de Google por contenido duplicado?, ¿que opción nos recomendaríais en el campo Robots (Index, Follow / No index, Follow... etc.)?
Lamento la utilización de Inglés en la descripción de algunos campos y opciones, pero el propietario del web site es de habla inglesa.
Un saludo y muchas gracias por vuestro tiempo.
URL del sitio: Contenido solo visible a usuarios registrados
Hola Alvaro,
La información de Metadatos y Metadescripciones para los artículos recomendable seria la siguiente sin entrar en la discusión de si Google la penaliza o no en función del uso que hagamos de dichos campos:
Descripción: Aquí podemos colocar desde un párrafo destacado extraído del propio artículo, hasta una descripción escrita que verse sobre los contenidos del artículo que estamos generando.
Palabras clave: Lo ideal es colocar entre 3 y 10 palabras clave que sean capaces de resumir la esencia de los contenidos del artículo. No es recomendable poner demasiadas ya que podemos obtener el efecto contrario y provocar que los robots terminen no indexándolo.
Robots: En este campo le indicamos a los robots o arañas (bots - crawlers) que visitan nuestra web si procede o no que sea indexado el contenido de la misma y por tanto que se sigan o no los enlaces y de paso evitamos el spam en la web y esto lo hacemos con las siguientes palabras:
follow: seguir el enlace.
nofollow: no seguir el enlace.
nosnippet: evita que determinadas partes del artículo aparezcan en las búsquedas.
noodp: evita el uso de la descripción ODP/DMOZ.
noarchive: evita que algunos metabuscadores muestren el enlace cacheado.
unavailable_after:[date]: aquí podemos especificar la hora y la fecha exactas en que no queremos tener rastreo e indexado de la página.
noimageindex: permite especificar que no desea que la página aparezca como la página de referencia de una imagen que se muestra en los resultados de la búsqueda de Google.
Al igual que sucede con las metaetiquetas, en este campo se pueden anidar varias etiquetas para robots separadas por comas (,).
Autor: Nombre del autor para los robots.
Es conveniente que todos estos datos no sean los mismos que utilizamos para etiquetar el sitio web, de lo contrario no solo no conseguiremos el objetivo de posicionar mejor los artículos sino que estaremos expuestos a que algunos metabuscadores no indexen nuestros contenidos. Ni que decir tiene que utilizar palabras que gozan de una gran reputación como metaetiquetas en la red y que no tienen nada que ver con nuestro artículo pueden provocar que los buscadores (Google principalmente) sancionen nuestra indexación y penalicen nuestro posicionamiento.
Saludos
Hola gnumax,
Te agradezco la aclaración en la utilización objetiva de cada campo. No me ha quedado claro la utilización de las palabras en Robots, ya que se trata de un desplegable.
Un saludo.
Hola Alvaro,
Sobre los parámetros de robots no difieren demasiado de lo habitual:
Creo que este enlace lo explica mejor que nadie 🙂
- http://googlewebmastercentral.blogspot.fr/2007/03/using-robots-meta-tag.html
Saludos
Gracias gnumax!
Un artículo genial y de los que cuesta encontrar fácilmente.
Gracias por la ayuda.