-
Postów
9670 -
Dołączył
-
Wygrane w rankingu
232
Treść opublikowana przez okazwłoka
-
Wracam za 8 lat Wszystko co linkuje da się wykorzystać, tylko trzeba z głową to robić. A jak już można we własnym zakresie modyfikować, to bajka.
- 2669 odpowiedzi
-
- 1
-
- xneolinks
- trust linki
-
(i 3 więcej)
Oznaczone tagami:
-
Dokładnie, SEO to testy testy i testy. Nie wszystko co ludzie piszą działa. Co więcej - często ludzie piszę że nie działa, a działa. Nie spróbujesz, nie przekonasz się.
-
Podeślij na mail, sprawdzę jak będę miał chwilkę, najpóźniej jutro.
-
Kiedyś DonLinkage taki był - uruchom i ciesz się pozycjami Ale to było z 7 lat temu, po 7 biednych latach podobno przychodzi 7 tłustych, zobaczymy Wybacz, ale szacowanie daty to nie mój konik delikatnie mówiąc, więc nawet nie podaję przybliżonej daty i nie wyciągaj tego ode mnie Ale postaram się to zrobić dość szybko. Ogólnie bazy nie są zweryfikowane, w Don możesz sobie zbudować bazę sukcesów i wtedy nie tracąc czasu na niedziałające miejscówki jedziesz ze sporą prędkością wiele projektów. Wiem, że DonLinkage aktualnie jest w stanie bez problemu wyciągnąć kilka tysięcy wpisów na publicznych bazach, ale nie znajdziesz chętnego do sprzedaży takiej bazy - bo to wymaga ciągłego harvestu, detekcji - a to zasoby proxy, captcha, serwer. A co głównie będzie w v7: - rozbudowa Premium o nowe skrypty PRIV - rozbudowa Premium o zweryfikowane bazy publiczne - pewnie wszystkie skrypty wezmę pod lupę żeby zwiększyć skuteczność - na pewno będę musiał poprawić logikę działania silników przy captcha - będą zmiany w monitoringu pozycji i harvesterze google Designu nie będę zmieniał, szkoda na to czasu. PS. Dla przykładu świeży projekt, skrypt discuz, skuteczność na bazie zweryfikowanej pod względem skryptu, pierwszy projekt:
- 1136 odpowiedzi
-
- 1
-
W samym premium aktualnie wchodzi ok 2500 adresów (sprawdzone na kilkunastu projektach w ostatnich dniach). 120 wpisów wchodzi na darmowych skryptach Premium (Art 1 i Kat 1).
- 1136 odpowiedzi
-
Wbudowane bazy są słabiutkie, to na pewno. Nie jest to soft, zainstaluj, uruchom i ciesz się topami. Obecnie pracuję nad wersją v7 i tam już będzie dostęp do zweryfikowanych baz, ale ciągle będzie to w Premium. Niestety zbieranie baz wymaga sporych zasobów, czasy się zmieniły i nie ma otwartych miejscówek na pęczki.
- 1136 odpowiedzi
-
A wydawało mi się, że nic nie schrzaniłem Ok, teraz powinno wrócić do normy.
-
Zasoby mają ogromne, z przechowywaniem na pewno problemów nie mają, problem to przetwarzanie. Na pewno ograniczając/uniemożliwiając odpytywanie wyszukiwarki przez automaty (np. sprawdzanie zindeksowania) moco odciąży przetwarzanie.
- 153 odpowiedzi
-
- 1
-
- bulk addurl
-
(i 1 więcej)
Oznaczone tagami:
-
Dzisiaj wynik skuteczności bez zmian. Czyli zostaje indeksowanie w ciemno na razie.
- 153 odpowiedzi
-
- bulk addurl
-
(i 1 więcej)
Oznaczone tagami:
-
To wszystko idzie w jednym kierunku: informacje tylko dla zweryfikowanych domen w GSC. Inaczej być nie może.
- 153 odpowiedzi
-
- bulk addurl
-
(i 1 więcej)
Oznaczone tagami:
-
G Problemy na pewno mają: Tylko pytanie skąd się im wzięły Pewnie chcieli uciąć jakoś spam, a rykoszetem poszło szeroko - nie pierwszy raz.
- 153 odpowiedzi
-
- bulk addurl
-
(i 1 więcej)
Oznaczone tagami:
-
Dzięki, każde spostrzeżenie jest ważne. Ale mam i tak wrażenie, że to wciąż bug w Google to całe zawirowanie z indeksowaniem i indekserami. Powinno wrócić do normy za jakiś czas, może się nawet okazać że wszystko nagle wskoczy w indeks, a wtedy będzie dopiero zamieszanie Bo Bot Google pięknie goni po stronach i zczytuje informacje.
- 153 odpowiedzi
-
- bulk addurl
-
(i 1 więcej)
Oznaczone tagami:
-
O skuteczności po 24h wspomnianej wyżej można sobie w tym momencie pomarzyć, 8 adresów zindeksowanych, to daje 16% skuteczności w tym momencie (ciężko powiedzieć, czy nie jest to naturalny poziom indeksacji). Mam pewnie wnioski, co mogę powiedzieć: po pierwsze google ma problem z pokazywaniem tego, co ma w indeksie (przynajmniej dla nowo zindeksowanych adresów). Nawet jeśli adres jest zindeksowany, to wyszukiwarka tego nie wypluje. Nowe adresy na chwilę pokazują się w SERPach, a po chwili znikają. Obecnie sprawdzanie nowych adresów przez site + inurl nie daje dobrych wyników, lepiej nowe adresy sprawdzać po cache (w wielu przypadkach po site nie ma, po treści nie ma, ale po cache jest w indeksie), co też nie daje dobrych rezultatów w przypadku nowych adresów. Czyli obecnie kuleje zarówno indeksowanie nowych adresów (nawet w przypadku normalnych, wartościowych stron) jak i podglądanie indeksu. To wszystko dotyczy zindeksowania po 24 godzinach, zmierzę skuteczność po kolejnych 24 godzinach. O... sprzedałem za darmo chyba za dużo informacji
- 153 odpowiedzi
-
- 3
-
- bulk addurl
-
(i 1 więcej)
Oznaczone tagami:
-
@lukash4 - oczywiście czas musisz odpowiedni ustawić, bo dziś to już nie zadziała
- 1136 odpowiedzi
-
- 1
-
Puściłem właśnie do zindeksowania paczkę testową 50 adresów (publiczne miejscówki, zrobione automatem), podam indeksację po 24 godzinach. Oczywiście trzeba mieć na uwadze obecne problemy Googla z indeksacją (co oficjalnie ogłosili).
- 153 odpowiedzi
-
- bulk addurl
-
(i 1 więcej)
Oznaczone tagami:
-
A mi brakuje w seohostingach jednej ważnej rzeczy, tak jak pisałem wcześniej stawiam strony raczej na sqlite na własnych autorskich cmsach w tym na CMS Pod Zaplecze (mała autoreklama). I w czym rzecz? Kiedyś kupowałem w seohost.pl konta SEO HTML - przez błąd w konfiguracji działało PHP (oczywiście bez mysql). No ale w końcu przestało działać i wyłączyli PHP I właśnie brakuje takiej opcji pośredniej pomiędzy HTML a PHP+MYSQL - czyli samo PHP bez MYSQL. Edit. O niespodzianka, rhosting coś takiego ma... Ale cenowo w porównaniu do konta z mysql wygląda blado.
-
@lukash4 Trzeba by to przez bazę mysql zaktualizować: delete FROM monitor_pozycje WHERE `time`>1601856000
- 1136 odpowiedzi
-
- 1
-
Ja ostatnio stawiam strony na seohostach na sqlite, omijam dzięki temu wąskie gardło seohostingów, więc tego problemu nie mam. A strony z większymi wymaganiami (mysql i duży ruch) na VPS. W OVH np. płacisz za dodatkowe IP raz (uruchomienie). Minus - potrzeba kogoś do zarządzania, a to są dodatkowe koszty. PS. WPis od dziś obsługuje też Joomla
-
Piszesz o kilkudziesięciu stronach, ale jaki masz na nich ruch, bo to jest bardzo ważne. WordPress i Joomla to dwa kombajny, które niezoptymalizowane mogą ostro zajechać nawet mocny serwer. No i jakie problemy miałeś na tych hostingach dotychczasowych? Chodziło o pady serwera, czy raczej przekraczałeś zasoby?
-
Tak. Są zmiany 1 października.
-
Tak, do CPZ będzie w końcu dostępny moduł komentarzy, jest to w planach. Będzie wtedy można dodawać masowo komentarze, takie strony wyglądają trochę naturalniej. Za moment będzie dostępna aktualizacja WPis o możliwość masowego dodawania komentarzy do Wordpress i jeszcze wprowadzona jest obsługa Joomla 4 (w zakresie dodawania, edytowania, usuwania artykułów), jak podpiąć Joomla 4 pod WPis tutaj: https://www.wpis.doku.pisz.pl/doku.php?id=start:funkcje:dodawanie_stron:joomla Ogólnie od teraz przy nowościach/zmianach zawsze będą informacje podawane w dokumentacji, tutaj można śledzić zmiany: https://www.wpis.doku.pisz.pl/doku.php?do=recent&id=start&show_changes=pages
-
OKi, zrobiłem aktualizację i teraz powinno sprawdzać poprawnie. Nie ma informacji o aktualizacji, po prostu trzeba ją kliknąć w donlinkage.
- 1136 odpowiedzi
-
- 1
-
Się robi, już sprawdzam. U mnie też ostatnie sprawdzenia pozycji są 1 października.
- 1136 odpowiedzi
-
Jednak cały czas idzie po punycode - podejrzewam że po API zmieniany jest punycode na polskie znaki diakrytyczne i wtedy wychodzą same zera w parametrach. @SEMSTORM - bylibyście tak uprzejmi zwrócić uwagę na opisany problem? Pozdrówka
-
Semstorm to świetne narzędzie i często się przydaje. Niestety mają bałagan przy IDN, najpierw punycode działało, później z polskimi znakami, teraz znów z punycode. Zmienię na punycode i bedzie dobrze.