Skocz do zawartości

Ranking

Popularna zawartość

Treść z najwyższą reputacją w 13.01.2023 uwzględniając wszystkie działy

  1. Tak właśnie robię ale raczej właśnie z pozytywnym skutkiem. Poza tym tym jeszcze czysty url.
    1 punkt
  2. Materiał, który tutaj się Wam nie spodobał był offem z wewnętrznego spotkania w firmie, więc ma prawo do niektórych nie trafiać i jestem z tym okej. Wideo wycięliśmy i udostępniliśmy po to żeby pokazać, że pozyskiwanie linków EM z zewnętrznych serwisów niesie za sobą pewne ryzyko i w skrajnych wypadkach, ryzyko zupełnie niekontrolowane (właściciel postawił kopii tego serwisu X i kiedy analizowaliśmy profil linków tego URL'a wraz z upływem czasu, to 98% anchorów prowadzących do niego miało EMA i sporo wysiłków trzeba było podjąć, żeby to odwrócić). Podobne scenariusze widziałem wielokrotnie np. pozyskując linki z forów, które miały zbudowane URL'e na adresacjach dynamicznych (czyli generowane w nieskończoność, a wprowadzone do indeksu search query, widoki stronicowania itp.). W skrajnych okolicznościach pozyskanie linka z EMA po X miesiącach, albo latach potrafiło doprowadzić do 1 URL'a tysiące linków (właśnie z tym EMA), co było wysoce niepożądane. Więc jak pozyskujecie BL, patrzcie na szerszy kontekst i cykl życia serwisu (jeśli ogólnie miejscówka jest "zajechana" i właściciel nie ma pomysłu jak dalej monetyzować serwis, żeby móc go moderować albo utrzymywać przynajmniej w jako takiej kondycji, to lepiej taki serwis w ogóle sobie odpuścić, niż się potem z tym szarpać). Co do zasady EMA u siebie lub w serwisach osób, z którymi jesteś w jakiejś relacji (takiej relacji, że gdyby przyszło zmienić proporcje anchorów URL'a, to jesteś w stanie tym zarządzić). A w obcych serwisach brand, URL, phrase match + call to action. To też zależy czy robisz SEO agencyjne dla kogoś i chcesz minimalizować ryzyko, czy robisz to SEO dla siebie, czy to jest stara domena, czy świeża. Algorytm nie jest 0-1 w tym kontekście.
    1 punkt
  3. Dzięki Mion. Za pomocą R można PRZEANALIZOWAĆ WIĘCEJ DANYCH, łączyć dane z różnych narzędzi, np. w Clusteric, jest możliwość pobrania danych z Ahrefsa, Majestica pod warunkiem, że wykupisz pakiet premium za ponad 1000 zł, możesz skorzystać z darmowego API od MOZ-a i wyodrębnić dane z Google Search Console. Masz racje, w pozycjonowaniu liczy się czas, ale, ja twierdzisz, R to "egzotyczny język"? O Pythonie też tak powiesz? Gość z Senuto ciekawie o R pisze Pisałem już o pobieraniu danych z Google Analitics, Search Console, w tym artykule jest też o wizualizacji za pomocą Ggplot , wyciągania linków ze stron konkurencji. Prosiłem Cię kiedyś o tzw. web scraping, jest też coś takiego w R Metod jest wiele, ale chodzi o koncepcje. Wiem, że wyciągają backlinki ze stron konkurencji za pomocą R, zresztą taka funkcja jest w Clastericu. A propos Clasterica podpowiedz mi jak za pomocą API,np darmowego MOZ-a wyciągać dane z GA i GSC? Albo Rapid API? Może podpowiesz coś mi o automatyzacji, np Mak'em? Skoro już piszę - podejmiesz się wyzwania?
    0 punktów
Ten Ranking jest ustawiony na Warszawa/GMT+01:00
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności