Skocz do zawartości

SEO-Odkurzacz - szczegółowa analiza profilu backlinków strony


dziki_rysio_997

Rekomendowane odpowiedzi

@novum:

Jeśli chodzi o dodawarkę, zdecydowanie miałem na myśli wbudowanie przeglądarki + obsługę na wysokim poziomie abstrakcji, bez konieczności zagłębiania się Użytkownika w techniczne szczegóły.

No ale to temat na "za jakiś czas" - potrzebuję trochę wolnych mocy przerobowych.

Co do supportu/propozycji: Wychodzę z założenia, że to Użytkownicy powinni w największym stopniu kierować rozwojem softu. :)

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 296
  • Dodano
  • Ostatniej odpowiedzi

Usun oznaczenie domeny i w opcji Wszystkie Widoczne/Usun oznaczenie wszystkich widocznych domeny chyba nie działa jak należy, jak pojedynczo odznaczam linki to śmiga

Kody -25% na hosting w biznes-host.pl
 

@mcmagik ~ maszyna jest tak głupia, jak jej użytkownik

Odnośnik do komentarza
Udostępnij na innych stronach

Aktualizacja do wersji 1.1 SEO-Odkurzacza jest dostępna!

Na skróty:

updater z wersji 1.05 (Nie wiesz, jaką masz wersję? Pomoc -> O programie (w tytule okna)).

aktualna wersja programu do pobrania

uaktualniona instrukcja

Co zostało zrobione?

Najważniejsze: automatyczne ocenianie linków w oparciu o reguły, import linków z GWT, wygodniejsze filtrowanie, aktualizacje uruchamiane z poziomu programu, trochę drobiazgów :)

Szczegółowo:

  • program pomaga w ocenie jakości linków:
    • przygotowane zostały defaultowe reguły spamowości i "zaufania" (z możliwością wyłączenia poszczególnych reguł)
    • możliwość zapamiętywania własnych reguł na podstawie filtrów i przypisywania im wag punktowych
    • reguły zarówno opisujące domeny spamowe, co i zaufane
    • podejrzane linki (w oparciu o reguły) są w tabeli szczegółów barwione odcieniami czerwieni (im intensywniejszy, tym prawdopodobnie gorszy link)

    [*]dodatkowa kolumna w tabeli szczegółów linków - do łatwego przegląd ich jakości: RULES (ze skrótami nazw reguł, na które łapie się link) - po kliknięciu na wiersz, na dole pokazuje się tekstowe rozwinięcie skrótów

    [*]możliwość filtrowania linków, które zdobyły >= X punktów prawdopodobieństwa spamowości za reguły

    [*]zapamiętywanie "zaufanych" domen

    [*]wykorzystywanie informacji o oznaczeniach domen (zarówno dobrych, jak i złych) w kolejnych analizach (reguły + filtrowanie)

    [*]zapamiętywanie danych kont GWT i import linków z GWT z poziomu programu (API GWT tego nie uwzględnia, dlatego program w tle loguje się na konto Użytkownika i pobiera linki)

    [*]możliwość szybkiego skopiowania najpopularniejszych anchorów/najczęściej linkowanych podstron (PPM na wierszach odpowiednich tabel w profilu linków) - do łatwej analizy linków prowadzących na konkretne podstrony/pozycjonujących na konkretne frazy

    [*]w profilu linków dodano dwa agregaty tworzone na podstawie stanu indeksacji domen i ich PR - szybki podgląd "na czym stoję" ;)

    [*]automatyczne aktualizacje uruchamiane z poziomu programu

    [*]przepięcie pobierania parametru WEB_ARCHIVE na ich nowe API

    [*]optymalizacja częstości pobierania parametrów Moza (mniejsza "szansa na banana" ;) )

    [*]zbieranie "do kupy" przy generowaniu pliku disavow domen z "www"/bez "www"

    [*]możliwość zgrupowania pod "domain:" wielu wpisów z tej samej domeny (może być istotne przy generowniu raportu tekstowego do disavow o dużym rozmiarze)

    [*]dwie drobne poprawki:

    • lepsza walidacja PR pobieranego przez proxy
    • rozwiązane wieszanie programu przy analizie języka tekstu na niektórych stronach zawierających język... arabski (był piękny bug w popularnej bibliotece Pythonowej ;) )

Mały screen tego, co chyba najważniejsze w tej aktualizacji - reguły (kolumna RULES) + kolorowanie "najwyżej punktowanych" linków:

link_details_rules.png

Po kliknięciu w linka pojawia się rozwinięcie znaczenia reguł - można szybko podejrzeć, co link przeskrobał:

rules_description.png

Oczywiście można też łatwo wyfiltrować liniki, które zebrały >= N punktów.

Wyżej wspominałem o aktualizacji footprintów, ale chyba raczej będę się skłaniał ku temu, by dać możliwość ich dopisywania przez Użytkowników, jak to widzicie?

Za tydzień - dwa zrobiłbym malutką aktualizację uwzględniającą te footprinty + najważniejsze uwagi po wprowadzeniu nowych funkcjonalności.

Życzę miłego korzystania z programu. :)

Damian

Odnośnik do komentarza
Udostępnij na innych stronach

Jeszcze jedna dość istotna sprawa (szczególnie dla tych, którzy eksperymentują z optymalnym dla swoich potrzeb zestawem reguł/swoimi regułami):

Dodałem opcję ponownego przeliczenia reguł dla już pobranych danych:

"Ocena linków -> Ponownie przelicz reguły dla danych z tabeli"

Jeśli ktoś dokonał aktualizacji wcześniej i tego nie ma:

Proszę o wywołanie "updater.exe".

@Rainmaster, dziękuję za zwrócenie na to uwagi.

Odnośnik do komentarza
Udostępnij na innych stronach

Tematowi palenia proxy pewnie będę się musiał baczniej przyjrzeć - pewnie zrobię jakąś małą aktualizację "optymalizacyjną".

Z tego, co widzę, to najbardziej proxy cierpią na sprawdzaniu duplicate content, w dalszej kolejności indeksacji - pomyślę, czy da się to zrobić "oszczędniej".

Proszę podeślij mi w wolnej chwili na PW info o tym, jak używasz programu, tj. konfiguracja (liczba wątków, timeouty, ew. ustawione opóźnienia, czy te proxy są transparentne (zakładam, że są), jak duże to są projekty - ile linków z ilu mniej więcej domen, jak szybkie jest łącze, które parametry wyznaczasz (lub których nie wyznaczasz)). Dzięki temu będę miał punkt odniesienia do testów i ew. optymalizacji.

Odnośnik do komentarza
Udostępnij na innych stronach

Odnośnie tego, co pisał @D_S:

Temat dotyczy prywatnych proxy, na których zwykle SEO-Odkurzacz działa gorzej (ma znacznie większy przemiał bramek).

Testy zrobione na bramkach z proxybonanza (również na Scrapeboxie - aby mieć dodatkowy punkt odniesienia) pokazały jeszcze coś ciekawego: proxybonanza najwyraźniej analizuje taki ruch we własnym zakresie i blokuje dostęp do Google szybciej, niż oni sami to robią - dostaję od nich 403 (a nie od Google) nawet przy próbie wejścia na główną google.com

Cóż, duża liczba zapytań o "site:domena.pl" jest banalna do wyłapania. Oczywiście można spowalniać takie zapytania w ustawieniach programu, ale chyba nie tędy droga - publiczne proxy zdają się sprawdzać w tym temacie lepiej i w dodatku są tańsze.

W powyższym nie da się nic sensownego zrobić, udoskonaliłem natomiast sposób zarządzania bramkami proxy, co może nieco polepszyć żywotność tych publicznych bramek (prywatnych też, ale z dokładnością do ograniczeń takich, jak powyżej) - zainteresowani tym są proszeni o uruchomienie "updater.exe".

Odnośnik do komentarza
Udostępnij na innych stronach

1. Nie działa mi sortowanie - gdy użyję przewijania pionowego, czyli nie jestem na topie tabeli = jakiś bug.

2. Przydałaby mi sie opcja zaznaczania wiecej niż jednego adresu naraz. gdy wybiore filtry i przegladam co zrobić z kolejnymi adresami moge wybrac albo jeden albo wszystkie adresy w tabelce aby np. dodać wszystkie linki witryny jako złe. A ja mam np. 15 do do dodania, 3 nie i potem znowu kilka do dodania - jakieś zaznaczenie wybranych może?

3. Jak już sprawdzam i strona sie okazuje ok, byłoby jakoś ją oznaczyć, że została sprawdzona. Potem jak zmienie kryteria i znów sprawdzam - widząc zaznaczenie (np. szary kolor) wiem, że tej nie muszę sprawdzać (a niekoniecznie musze pamiętać, że tą już sprawdzałem)

4. Extra byłoby, żeby oprócz plików wybranych do disavow było mozliwe oznaczenia (np. na zielono) dobrych linków/stron i eksportowanie ich automatycznie do osobnej zakładki. Jesli nie przy analizie własnych, to przy analizie linków konkurencji byłoby to przydatne :)

Jak dla mnie : soft extra!

Na wysoki cholesterol - aloes: aloeamer.pl

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.


×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności