Indexação Search

Olá!! Estou identificando uma redução no volume de cliques no meu site mesmo aumentando o volume de páginas publicadas.

No search aparece informações sobre indexação que vou deixar o print.

Uma boa parte das páginas que não estão indexadas são páginas de camuflagem de link que utilizo através do plugin pretty links. De forma intencional deixo a opção no follow habilitada conforme imagem
Capturar2

O que posso fazer? Devo me preocupar ou aguardar mais um pouco?

Sobre os prints, não vi nada anormal.
Apenas um volume considerável de paginas 404 e noindex que precisa avaliar a causa.
Precisa ver do que se trata estas páginas, acredito que isso pode ser melhorado.

Mas sobre paginas desindexado, tem acontecido mesmo.
O google tem removido muitas páginas principalmente quando detecta padrões de IA de criação de conteúdo.

Sobre páginas desindexado: Não uso IA para conteúdo. Posso estar sofrendo com isso mesmo asim?

Sobre 404: O que eu devo fazer?

um exemplo de página 404 que apareceu no search: https://empreendedorseculoxxi.com.br/guia-para-o-emagrecimento-definitivo-renata-moraes

Só que isso não é uma página… é um link criado no pretty links para camuflar o link de afiliado.

Esse 404 realmente se trata de um 404.
É um link que está redirecionando para uma url da Hotmart que não existe mais.
Sendo assim é um 404.

Você deve verificar cada uma delas e direcionar para uma URL válida ou então criar a pagina desta url em seu site.

Isso impacta no desempenho do site nas pesquisas?

Eu coloco sempre no follow… era pra não ser reconhecido pelo search, certo?
Capturar2

E dentro tem essas opções… sempre deixo na padrão que é a primeira

Nofollow é para não dar relevância para aquele link. É um indicativo que você não “confia” aquele site para o qual mandou o link.

Para não indexar a pagina deve ser marcada com No Index.

E sim, qualquer erro no site vai impactar no SEO.

Como marcar como No Index? Sendo que não é uma página e sim um camuflador de link de afiliado

Nunca trabalhei desta forma. Sendo assim nunca cheguei a fazer isso.
Mas acredito que é possível com uma regra no arquivo robots.txt

Edita o robots.txt e para cada url que pretende remover usa a regra

Disallow: /guia-para-o-emagrecimento-definitivo-renata-moraes

Uma por linha.

Tem todas as informações aqui: https://www.robotstxt.org/robotstxt.html


Sobre robots, o semrush diz que não tem no sitemap… tem aula sobre isso?

Agora pra criar essa regra em cada url sendo 7 mil urls desse tipo, como faço?
em 4 anos quase, o search nunca identificou esses links como página. sempre foi redirecionamento.

esclarecendo a informação… o robot parece que já está bloqueando essas “páginas” que na verdade são links do camuflador pretty links… olha o print

Neste caso ok.
Se já estão sendo bloqueadas pelo Robots o search Console vai apenas lhe informar sobre.
Neste caso, acredito que não precisa tomar nenhuma ação sobre estas paginas em específico.

O Search Console vai lhe informar sobre praticamente tudo que o Google rastreia em seus sites.
Agora, se é necessário ou não tomar uma ação vai depender do erro.
Precisa entender do que se trata cada uma das notificações recebidas no search Console e com base nisso tomar as devidas ações.

Sobre essas de 404.
São as mesmas páginas que foram bloqueadas pelo robots, porque está acusando esse erro então?

Você falou para colocar uma regra em uma por uma… são 500 apenas nesse blog. Inviável. Tem alternativas?

https://dominio.com/feed/ esse tipo de página é o que? tem várias dessa como Rastreada, mas não indexada no momento… tem o link da página e no final /feed/

Se realmente estão bloqueadas pelo robots teoricamente não deveria rastrear.
Tem certeza que este bloqueio está correto?

O feed é um recurso antigo.
Ele é basicamente uma cópia do seu conteúdo que pode ser puxado por algum leitor de feed.
Se não me engano o Google também usa o feed para exibir conteúdos no Discover.
O Wordpress faz esse feed por padrão.

O Google informar que rastreou mas não indexou o feed é normal.

Olha o último print que coloquei… são páginas que o search acusou como bloqueadas pelo robots…

eu não fiz bloqueio nenhum, não mexi em nada… é o search que está dizendo… o mesmo modelo de página que está sendo bloqueado pelo robots, o google search está tentando indexar…

Sinceramente, apenas com prints é muito complicado lhe responder.
Esse tipo de situação requer analise, precisaria ter acesso ao site, ao Search Console e investigar qual o motivo destes retornos.

Para investigar isso o ideal seria uma consultoria.
Mas infelizmente, neste momento não tenho disponibilidade para uma consultoria.

O que talvez ajudaria seria um vídeo navegando pelo Webmasters, mostrando os erros e também mostrando todas as configurações do site.