No estás registrado (Registrarse)

Vanilla 1.1.10 es un producto de Lussumo. Para más información: Documentación, Soporte.

    • CommentAuthorEROSALIANZA
    • CommentTimeJun 20th 2014 editado
     # 1
    Quiero hacer un subdirectorio (/*/) y hacer un listado de todos los artículos en la raíz de acceso público, como home del subdirectorio. Ese listado sobrepasa los recomendados 100 links internos (de hecho bastante más) ya que lista todos los artículos en forma de biblioteca alfabetizada (que son muchos más y no vienen ramificados en diferentes URLS). Lo veo más usable para el usuario que listar estilo blog porque sale como información itinerante, incluso mejor que ramificado estilo árbol (como los directorios al uso).

    Quiero que se indexen los artículos, que es lo más importante, pero no me interesa indexar el contenido que los lista (archive) dado que es demasiado largo y se asemeja a una granja de links (aunque inbound).

    Ahora bien, si añado nofollow a la lista de artículos estaría indicándole a Google que los elementos children no son suficientemente importantes. Si añado noindex al archive page estaría condicionando también los sub-elementos y tendría que crear asociaciones sobre el parent y el children en el robots.txt. Si no pusiera nofollow repartiría un juice superfluo.

    ¿Qué solución le véis? Por ahora he optado por:

    User-agent: *
    Allow: /
    Allow: /raiz/elementos/
    Disallow: /raiz/
    Disallow: /raiz/*?
    •  
      CommentAuthorCorso
    • CommentTimeJun 20th 2014
     # 2
    Posted By: EROSALIANZASi añado noindex al archive page estaría condicionando también los sub-elementos y tendría que crear asociaciones sobre el parent y el children en el robots.txt.


    No entiendo el problema del noindex.:: el roce hace el dominio ::
    • CommentAuthorEROSALIANZA
    • CommentTimeJun 20th 2014 editado
     # 3
    Posted By: Corso
    Posted By: EROSALIANZASi añado noindex al archive page estaría condicionando también los sub-elementos y tendría que crear asociaciones sobre el parent y el children en el robots.txt.


    No entiendo el problema del noindex.:: el roce hace el dominio ::


    Me preocupa que haciendo noindex en la raíz el rastreo no pase de ahí a nivel de indexación SEO a pesar de lo listado en sitemap o que pueda bajar el rank por la relevancia del parent.
    •  
      CommentAuthorPaco
    • CommentTimeJun 20th 2014 editado
     # 4
    Me preocupa que haciendo noindex en la raíz el rastreo no pase de ahí a nivel de indexación SEO


    como indexar lo va a indexar pero ciertamente la relevancia que se va a transmitir será nula, imagino que no será la home de modo que quizá puedas clasificar de otra forma para el robot(como un mapa del sitio modo árbol) y dejar una versión visual para el usuario noindex, nofollow (si no es la home)

    por decir algo :typeo:
    •  
      CommentAuthorCorso
    • CommentTimeJun 20th 2014
     # 5
    ¿Esas páginas individuales sólo reciben enlaces internos desde esa página índice?:: el roce hace el dominio ::
    • CommentAuthorEROSALIANZA
    • CommentTimeJun 20th 2014 editado
     # 6
    Posted By: Corso¿Esas páginas individuales sólo reciben enlaces internos desde esa página índice?


    Si, no hay forma de seguirlos fuera de esa raíz salvo por el sitemap.
    •  
      CommentAuthorprekfawkz
    • CommentTimeJun 20th 2014
     # 7
    En teoría debería de pasar... no deshabilita directorios recursivamente en ningún momento.
    Creo que no hace falta repetir el user agent.

    :cata:COCK AND BALL TORTURE
    • CommentAuthorEROSALIANZA
    • CommentTimeJun 20th 2014 editado
     # 8
    Posted By: prekfawkzEn teoría debería de pasar... no deshabilita directorios recursivamente en ningún momento.
    Creo que no hace falta repetir el user agent.

    :cata:Unlimited free hosting|Unlimited Web Hosting|Detector de plagio|Dominios de tres letras


    Gracias, si tienes razón con lo del user-agent, estaba listando varias directrices a diferentes agents y lo repetí.

    Haré unas pruebas en cuanto el robots.txt actualice en Google Webmaster y comentaré resultados por si sirve de utilidad a alguien con dudas similares.
    •  
      CommentAuthormadu
    • CommentTimeJun 21st 2014
     # 9
    Yo lo dejaría que lo indexara tal cual, cuanto menos noindex metas en tu web mejor, no te preocupes por que sobrepase los 100 links, si por eso Google va a devaluar ese listado es gallo de otro corral, pero no afectas ni al valor de los enlaces internos ni al rastreo natural de tu web, encima si no los tienes enlazados desde otro lugar y es el único enlace que Google va a encontrar aparte del sitemap, no veo el sentido de ponerle un noindex o intentar quitarte de encima ese listado por presuntas penalizaciones SEO que no creo que tengas ni evaluadas ni contrastadas. Otra cosa sería que me dijeras que vas a hacer mil páginas de listados así con esa cantidad de inbound links... entonces ya habría que pensárselo.

    Eso no deja de ser un sitemap en html por lo que comentas, salvo que sean miles de páginas con esos listados y muy desproporcionadas al resto del contenido de tu sitio, no debería perjudicarte para nada, solo beneficiarte.
    • CommentAuthorEROSALIANZA
    • CommentTimeJun 21st 2014 editado
     # 10
    Parece que ha funcionado con robots.txt.

    Según las pruebas:

    Bloqueado por la línea 5: Disallow: / (parent sobre el dominio)
    Autorización por línea 3: Allow: /raiz/elementoschildren/ (elementos chilren dentro del parent bloqueado)
    Autorización por línea 2: Allow: / (dominio)

    Al final las reglas que puse estaban mal, puesto que al poner:
    Disallow: /parent

    Estaba bloqueando los posts puesto que estos no tienen un slash de segundo nivel. Lo correcto sería:

    Disallow: /parent
    Allow: /parent/*

    Ahora a esperar y ver si se indexa debidamente.