Skocz do zawartości

CLUSTERIC Link Auditor – narzędzie do audytu linków i nie tylko.


dziki_rysio_997

Rekomendowane odpowiedzi

Równolegle z rozwojem funkcjonalności programu (w tym tygodniu powinna się pojawić kolejna aktualizacja) rozpoczynamy przygotowywanie materiałów pokazujących, jak efektywnie pracować z CLUSTERIC Link Auditorem.

Temat na dziś: Przegląd/audyt istniejącego pliku disavow.
Zwłaszcza wykonanego ręcznie lub w innym programie albo otrzymanego od nowego klienta z "historią". ;)

(dostępne są napisy PL)



Więcej we wpisie na blogu. Edytowane przez dziki_rysio_997
Odnośnik do komentarza
Udostępnij na innych stronach

Aktualizacja programu jest dostępna!

Informacja o aktualizacji pojawi się po starcie programu na belce tytułowej, kliknięcie w nią otworzy okno, w którym można wywołać aktualizację.

Co nowego? :)

  • Przebudowane tryby "Expired domains" - Użytkownik ma możliwość zdefiniowania kryteriów przesiewu domen - gdy kryteria dla danej domeny nie są spełnione, program nie sprawdza jej parametrów dalej. Dzięki temu analiza jest szybka. Dopiero po spełnieniu określonych kryteriów, program sprawdza WHOIS (z uwagi na ograniczenia). Możliwe, że wkrótce zamiast sprawdzania WHOIS będziemy w tych trybach tylko badać dostępność domeny do rejestracji - musimy przetestować różne rozwiązania.

    Użytkownik definiuje parametry przesiewu:

expired_new_0.png

W trakcie analizy program weryfikuje, czy kryteria są spełnione i informuje o tym, czy/dlaczego odrzucił domenę z dalszej oceny:

expired_new_1.png

  • Wyszukiwanie linków w kodach JavaScript na stronie (gdy nie znaleziono w czystym HTMLu)
  • Wyszukiwanie linków tekstowych (gdy nie znaleziono zwykłych/linków JavaScript)
  • Dodanie kolejnej formuły
  • Optymalizacje istniejących formuł
  • Poprawa zarządzania proxy
  • Mniejsze poprawki i optymalizacje


Prawdopodobnie wkrótce pojawią się wpisy/filmy pokazujące w praktyce wykorzystanie programu do przesiewu domen do rejestracji i link prospectingu, czyli "jak znaleźć wartościowe miejscówki do link buildingu". :)

Jak zawsze zapraszamy do zgłaszania propozycji rozwojowych!

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

T. Wydra przygotował fajny przegląd funkcjonalności programu - zapraszam do lektury!

https://www.wydra.waw.pl/blog/link-auditor-analiza-linkow-polski-produkt-o-zachodniej-jakosci/

Są też wzmianki o tym, co dalej. Po cichu powiem, że zaczęliśmy budowę własnego indeksu backlinków. ;)

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

Kiedy kolejne tutoriale ?

Będziemy chcieli publikować tutoriale co kilka dni równolegle z rozwojem programu (na szczęście sprawy "organizacyjne" już w większości chyba ogarnęliśmy). :)

Jeśli jest jakiś temat, który Cię szczególnie interesuje - proszę pisz śmiało, może pojawi się wcześniej.

Edytowane przez dziki_rysio_997
Odnośnik do komentarza
Udostępnij na innych stronach

Ponieważ w ostatnim czasie otrzymujemy zapytania od Użytkowników programu SEO-Odkurzacz, którzy nie załapali się na pierwszą promocję albo zwyczajnie ją przegapili, zdecydowaliśmy się przygotować kolejną!

Przedstawiamy specjalną ofertę zakupu programu CLUSTERIC Link Auditor kierowaną do Użytkowników SEO-Odkurzacza.

Aby skorzystać z promocji, wystarczy wejść na stronę zakupową i kliknąć:

promocja_so.png

A następnie wybrać interesujący nas wariant. Myślę, że ceny są bardzo atrakcyjne, więc warto skorzystać z oferty już teraz! :)

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

Link auditor to nie dedykowany harvester, ale chciałbym zobaczyć, jak autorzy radzą sobie z trybem link prospecting. Tutaj bardziej chodzi o efektywne wykorzystanie.

Miałem kilka podejść do tego trybu tak testowo, ale jakoś nie za specjalnie to wypadło.

1. Mam pytanie [Nie mam softu przed sobą]: z tego co pamiętam, są dwa domyślne tryby expired domains light i heavy, nie ma jednak możliwości definiowania swojego trybu expired domains - w sensie trybu z taką samą zasadą działania, że pobierania asynchronicznie, a na końcu whois. Jeżeli jest to prosiłbym o info. Chciałbym przykładowo wyłączyć całkowicie pobieranie danych social i stworzyć sobie taki trybik.

2. Ostatnio próbowałem wrzucić paczkę z linkami jakieś 16 mb no i niestety soft siadł. Pytanie: czy tak jak mi się wydaje mam za słabe parametry VPSa ?

3. Dzisiaj zauważyłem jedną rzecz: brakuje mi możliwości zmiany parametrów na jakiej działa program: chodzi mi o opóźnienie zapytań do google, proxy i liczbę wątków. Chodzi mi o możliwość zmiany tych parametrów już w czasie analizy.

Ustawiłem za ostre parametry, a musiałem robić coś jeszcze, a żal było przerywać 50% analizy paczki 150k (wiem jest pauza)

4. Zastanawialiście się nad wprowadzeniem jakiejś prostej przeglądarki do waszych raportów ? Nie wiem jak to wytłumaczyć: Coś jak np. Adobe Indesign (program do tworzenia zaawansowanych .pdf) i adobe reader (program do przeglądania dokumentów .pdf)

Soft jest na serwerze i chciałbym mieć jakąś wersje portable na swojego kompa. (Nie jestem mistrzem exela)

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

Link auditor to nie dedykowany harvester, ale chciałbym zobaczyć, jak autorzy radzą sobie z trybem link prospecting. Tutaj bardziej chodzi o efektywne wykorzystanie.

Miałem kilka podejść do tego trybu tak testowo, ale jakoś nie za specjalnie to wypadło.

"Link prospecting" to prawdopodobnie jeden z najbliższych tematów na wpis - chociaż nie wiem, czy wykorzystany w taki sposób, jak byś oczekiwał (tzn. w pierwszej kolejności myśleliśmy o znajdowaniu dobrze dopasowanych miejsc pod działania ręczne, niż ostrym harveście w celu zrobienia dużej listy).

Jeśli chodzi o efektywne wykorzystanie, proszę doprecyzuj (może być w wątku, a może być na PW jak wolisz), co chciałbyś zrobić i na jakich ustawieniach, tzn.:

- czy to ciężkie footprinty, czy same słowa kluczowe (i ile ich było)

- ile TOPowych wyników chcesz zebrać dla każdej frazy

- jakie były ustawienia (liczba wątków, opóźnianie zapytań, liczba powtórzeń)

- jakie/skąd miałeś proxy i ile ich było

Spróbujemy zastanowić się, jakie byłyby optymalne ustawienia/czy są potrzebne optymalizacje.

1. Mam pytanie [Nie mam softu przed sobą]: z tego co pamiętam, są dwa domyślne tryby expired domains light i heavy, nie ma jednak możliwości definiowania swojego trybu expired domains - w sensie trybu z taką samą zasadą działania, że pobierania asynchronicznie, a na końcu whois. Jeżeli jest to prosiłbym o info. Chciałbym przykładowo wyłączyć całkowicie pobieranie danych social i stworzyć sobie taki trybik.

Myśleliśmy o tym, temat jest jak najbardziej do ruszenia po ogarnięciu najpilniejszych. Być może będzie po prostu opcja (przy tworzeniu własnego trybu), by zaznaczyć "to jest tryb expired domains" i wtedy będzie działał podobnie jak dwa wbudowane, ale pobierał wyłącznie to, co zdefiniuje Użytkownik.

2. Ostatnio próbowałem wrzucić paczkę z linkami jakieś 16 mb no i niestety soft siadł. Pytanie: czy tak jak mi się wydaje mam za słabe parametry VPSa ?

To już dość sporo. :) Najbardziej prawdopodobne jest, że zabrakło pamięci. Ugryziemy jeszcze ten temat - możliwe, że trzeba wprowadzić inny sposób wczytywania tak dużych list linków, będziemy też chcieli ustalić, ile mniej więcej wynosi górny limit na jeden projekt. Możliwe, że dla bardziej wymagających (i wyposażonych w serwery/komputery z dużą ilością pamięci) będzie potrzebna wersja 64-bitowa. Odezwiemy się do Ciebie przy tego rodzaju optymalizacjach i będziemy myśleć nad najlepszym rozwiązaniem.

3. Dzisiaj zauważyłem jedną rzecz: brakuje mi możliwości zmiany parametrów na jakiej działa program: chodzi mi o opóźnienie zapytań do google, proxy i liczbę wątków. Chodzi mi o możliwość zmiany tych parametrów już w czasie analizy.

Ustawiłem za ostre parametry, a musiałem robić coś jeszcze, a żal było przerywać 50% analizy paczki 150k (wiem jest pauza)

Myślę, że będzie taka możliwość, prawdopodobnie dodamy też opcję autosave + wznowienie analizy (i być może to załatwi sprawę).

4. Zastanawialiście się nad wprowadzeniem jakiejś prostej przeglądarki do waszych raportów ? Nie wiem jak to wytłumaczyć: Coś jak np. Adobe Indesign (program do tworzenia zaawansowanych .pdf) i adobe reader (program do przeglądania dokumentów .pdf)

Soft jest na serwerze i chciałbym mieć jakąś wersje portable na swojego kompa. (Nie jestem mistrzem exela)

Będzie opcja generowania raportów w formacie PDF - to chyba załatwi sprawę? :) I w sumie jest to jedna z opcji, do których przymierzamy się za moment.

Dzięki za uwagi/propozycje! :)

Odnośnik do komentarza
Udostępnij na innych stronach

"Link prospecting" - właśnie to mam na myśli, chciałbym poznać jak wy podchodzicie do waszego softu, bo ja rzuciłem go na głęboką wodę :)
Jak testowałem link prospecting, to przy jednej analizie strasznie marnie wyszło. Wyszukiwanie po słowach kluczowych i 1000 wyników, no i zebrało sporo niepotrzebnych stron.

 

Aha: Brakowało mi tam opcji ustalanie po jakich domenach google ma robić harvest. 

 

Proxy to proxy market ^^

2. Z tego co zauważyłem najlepiej sobie radzi z paczkami 130 - 170 k

W następnym tygodniu potestuję ostrzej program i może coś jeszcze skrobnę

 

Ogólnie sofcik KOZAK

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

Dzięki za uwagi!
 

Jak testowałem link prospecting, to przy jednej analizie strasznie marnie wyszło. Wyszukiwanie po słowach kluczowych i 1000 wyników, no i zebrało sporo niepotrzebnych stron.[/font][/color]


Jeśli chodzi o link prospecting to wejściem do niego może być "zwykły" harvest. I wtedy bardzo dużo zależy od tego, jakie słowa kluczowe podaje użytkownik.
Dla samych słów kluczowych, zbieranie TOP1000 zwykle da też sporo stron słabo dopasowanych (okupujących dalekie pozycje - na wiele fraz strony z pozycji >100 to już sieczka albo nietrafione wyniki).
Tu nasuwają się dwie możliwości lepszego przesiewu:
1. Albo harvestowanie większej liczby stron po samych frazach i potem uruchomienie trybu Link prospecting Medium/Heavy (żeby analizował też czynniki onsite) z podanymi tymi samymi słowami na liście słów kluczowych - wtedy program wypunktuje strony za nasycenie tymi słowami w kolumnach KEYWORDS_* i można wyfiltrować sobie strony o odpowiednim nasyceniu, które np. są forami -> mamy potencjalnie ciekawe miejsca do działania.

2. Albo zawężenie na etapie samego harvestu (wtedy jeśli ktoś chce mieć szybko wynik, można zrobić Link prospecting - light i tylko dla linków zebrać ogólne parametry, niestety bez np. liczby linków wychodzących, jeśli ktoś woli być bardziej dokładny/ostrożny to jak najbardziej mogą to być "wyższe" wersje tego trybu). Kombinować można używając właściwie dowolnych zapytań, np.:
intitle:słowo_kluczowe (podobnie inurl i inne operatory)
-coś, czego na pewno nie chcemy np. -katalog
może dołożyć jakiś konkretny footprint?

może szukać na konkretnych platformach pomagając sobie "site:"

Możliwości jest dość dużo.
 

Aha: Brakowało mi tam opcji ustalanie po jakich domenach google ma robić harvest.

Proszę rozwiń, co masz na myśli, tzn. czy chciałbyś zawęzić harvest do konkretnych domen? Do ilu? Czy coś więcej, niż np. wykorzystanie "site:" w zapytaniu?

Fajnie, że wyszła dyskusja na ten temat, będziemy wiedzieli, co pokazać w nagraniu/wpisie z Link prospecting. :)

Odnośnik do komentarza
Udostępnij na innych stronach

  • 1 miesiąc temu...

Cały czas pracujemy nad indeksem backlinków, który mamy nadzieję w najbliższym czasie Wam pokazać w formie trybów do analizy linków konkurencji. :)
W związku z tym, że zakres prac jest dość spory, postanowiliśmy w międzyczasie wypuścić małą aktualizację funkcjonalną. Możliwe, że jeszcze przed wpięciem indeksu backlinków do apki pojawią się skróty klawiszowe.

Zakres dzisiejszej aktualizacji:
Od teraz w zestawach kolumn zachowywana jest też informacja o kolejności zdefiniowanej przez Użytkownika, więc można ustawić widoczność parametrów i "porządek" pod siebie. ;)
Możliwość rozszerzenia "kolumny" URL.
Drobne zmiany w interfejsie programu.
Poprawki, małe usprawnienia.

Odnośnik do komentarza
Udostępnij na innych stronach

Tak, jak wspominałem - przed aktualizacją z analizą linków konkurencji mamy dla Was jeszcze mały update poprawiający usability programu: skróty klawiszowe (z możliwością zmiany ustawień).

key_shortcuts.png

 

Teraz można na przykład szybko tagować linki, wciskając klawisz "T" (lub "Ctrl+T" dla wszystkich linków w domenie) i wybierając interesującą nas opcję odpowiednim numerkiem:

key_shortcuts_tagging.png

Zapraszam do pobrania aktualizacji. :)
 

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

Dostępna jest drobna aktualizacja, której w sumie nie planowaliśmy. :)

1. Zaktualizowaliśmy pobieranie parametrów Majestic (bez klucza API) stosując się do ostatnich zmian wprowadzonych przez Majestic.
2. Dodaliśmy możliwość pobierania parametrów z indeksu świeżego (fresh index) - możliwe jest łatwe i szybkie pobranie tych danych w trybie "CUSTOM" (nie trzeba zapisywać trybu na stałe):
clusteric_majestic_params.png
3. Wprowadziliśmy sortowanie domen na liście domen na koncie GWT (wcześniej były według kolejności z panelu, ale to niewygodne dla osób, które mają kilkaset domen na koncie).

P.S.
Jeśli potrzebujecie też TF/CF na poziomie URLa - dajcie znać, możemy to szybko dodać. :)

Zapraszam do aktualizacji! :)

Edytowane przez dziki_rysio_997
Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności