Skocz do zawartości

okazwłoka

Oficjalne
  • Postów

    9670
  • Dołączył

  • Wygrane w rankingu

    232

Treść opublikowana przez okazwłoka

  1. Wracam za 8 lat Wszystko co linkuje da się wykorzystać, tylko trzeba z głową to robić. A jak już można we własnym zakresie modyfikować, to bajka.
  2. Dokładnie, SEO to testy testy i testy. Nie wszystko co ludzie piszą działa. Co więcej - często ludzie piszę że nie działa, a działa. Nie spróbujesz, nie przekonasz się.
  3. Podeślij na mail, sprawdzę jak będę miał chwilkę, najpóźniej jutro.
  4. Kiedyś DonLinkage taki był - uruchom i ciesz się pozycjami Ale to było z 7 lat temu, po 7 biednych latach podobno przychodzi 7 tłustych, zobaczymy Wybacz, ale szacowanie daty to nie mój konik delikatnie mówiąc, więc nawet nie podaję przybliżonej daty i nie wyciągaj tego ode mnie Ale postaram się to zrobić dość szybko. Ogólnie bazy nie są zweryfikowane, w Don możesz sobie zbudować bazę sukcesów i wtedy nie tracąc czasu na niedziałające miejscówki jedziesz ze sporą prędkością wiele projektów. Wiem, że DonLinkage aktualnie jest w stanie bez problemu wyciągnąć kilka tysięcy wpisów na publicznych bazach, ale nie znajdziesz chętnego do sprzedaży takiej bazy - bo to wymaga ciągłego harvestu, detekcji - a to zasoby proxy, captcha, serwer. A co głównie będzie w v7: - rozbudowa Premium o nowe skrypty PRIV - rozbudowa Premium o zweryfikowane bazy publiczne - pewnie wszystkie skrypty wezmę pod lupę żeby zwiększyć skuteczność - na pewno będę musiał poprawić logikę działania silników przy captcha - będą zmiany w monitoringu pozycji i harvesterze google Designu nie będę zmieniał, szkoda na to czasu. PS. Dla przykładu świeży projekt, skrypt discuz, skuteczność na bazie zweryfikowanej pod względem skryptu, pierwszy projekt:
  5. W samym premium aktualnie wchodzi ok 2500 adresów (sprawdzone na kilkunastu projektach w ostatnich dniach). 120 wpisów wchodzi na darmowych skryptach Premium (Art 1 i Kat 1).
  6. Wbudowane bazy są słabiutkie, to na pewno. Nie jest to soft, zainstaluj, uruchom i ciesz się topami. Obecnie pracuję nad wersją v7 i tam już będzie dostęp do zweryfikowanych baz, ale ciągle będzie to w Premium. Niestety zbieranie baz wymaga sporych zasobów, czasy się zmieniły i nie ma otwartych miejscówek na pęczki.
  7. A wydawało mi się, że nic nie schrzaniłem Ok, teraz powinno wrócić do normy.
  8. Zasoby mają ogromne, z przechowywaniem na pewno problemów nie mają, problem to przetwarzanie. Na pewno ograniczając/uniemożliwiając odpytywanie wyszukiwarki przez automaty (np. sprawdzanie zindeksowania) moco odciąży przetwarzanie.
  9. Dzisiaj wynik skuteczności bez zmian. Czyli zostaje indeksowanie w ciemno na razie.
  10. To wszystko idzie w jednym kierunku: informacje tylko dla zweryfikowanych domen w GSC. Inaczej być nie może.
  11. G Problemy na pewno mają: Tylko pytanie skąd się im wzięły Pewnie chcieli uciąć jakoś spam, a rykoszetem poszło szeroko - nie pierwszy raz.
  12. Dzięki, każde spostrzeżenie jest ważne. Ale mam i tak wrażenie, że to wciąż bug w Google to całe zawirowanie z indeksowaniem i indekserami. Powinno wrócić do normy za jakiś czas, może się nawet okazać że wszystko nagle wskoczy w indeks, a wtedy będzie dopiero zamieszanie Bo Bot Google pięknie goni po stronach i zczytuje informacje.
  13. O skuteczności po 24h wspomnianej wyżej można sobie w tym momencie pomarzyć, 8 adresów zindeksowanych, to daje 16% skuteczności w tym momencie (ciężko powiedzieć, czy nie jest to naturalny poziom indeksacji). Mam pewnie wnioski, co mogę powiedzieć: po pierwsze google ma problem z pokazywaniem tego, co ma w indeksie (przynajmniej dla nowo zindeksowanych adresów). Nawet jeśli adres jest zindeksowany, to wyszukiwarka tego nie wypluje. Nowe adresy na chwilę pokazują się w SERPach, a po chwili znikają. Obecnie sprawdzanie nowych adresów przez site + inurl nie daje dobrych wyników, lepiej nowe adresy sprawdzać po cache (w wielu przypadkach po site nie ma, po treści nie ma, ale po cache jest w indeksie), co też nie daje dobrych rezultatów w przypadku nowych adresów. Czyli obecnie kuleje zarówno indeksowanie nowych adresów (nawet w przypadku normalnych, wartościowych stron) jak i podglądanie indeksu. To wszystko dotyczy zindeksowania po 24 godzinach, zmierzę skuteczność po kolejnych 24 godzinach. O... sprzedałem za darmo chyba za dużo informacji
  14. @lukash4 - oczywiście czas musisz odpowiedni ustawić, bo dziś to już nie zadziała
  15. Puściłem właśnie do zindeksowania paczkę testową 50 adresów (publiczne miejscówki, zrobione automatem), podam indeksację po 24 godzinach. Oczywiście trzeba mieć na uwadze obecne problemy Googla z indeksacją (co oficjalnie ogłosili).
  16. A mi brakuje w seohostingach jednej ważnej rzeczy, tak jak pisałem wcześniej stawiam strony raczej na sqlite na własnych autorskich cmsach w tym na CMS Pod Zaplecze (mała autoreklama). I w czym rzecz? Kiedyś kupowałem w seohost.pl konta SEO HTML - przez błąd w konfiguracji działało PHP (oczywiście bez mysql). No ale w końcu przestało działać i wyłączyli PHP I właśnie brakuje takiej opcji pośredniej pomiędzy HTML a PHP+MYSQL - czyli samo PHP bez MYSQL. Edit. O niespodzianka, rhosting coś takiego ma... Ale cenowo w porównaniu do konta z mysql wygląda blado.
  17. @lukash4 Trzeba by to przez bazę mysql zaktualizować: delete FROM monitor_pozycje WHERE `time`>1601856000
  18. Ja ostatnio stawiam strony na seohostach na sqlite, omijam dzięki temu wąskie gardło seohostingów, więc tego problemu nie mam. A strony z większymi wymaganiami (mysql i duży ruch) na VPS. W OVH np. płacisz za dodatkowe IP raz (uruchomienie). Minus - potrzeba kogoś do zarządzania, a to są dodatkowe koszty. PS. WPis od dziś obsługuje też Joomla
  19. Piszesz o kilkudziesięciu stronach, ale jaki masz na nich ruch, bo to jest bardzo ważne. WordPress i Joomla to dwa kombajny, które niezoptymalizowane mogą ostro zajechać nawet mocny serwer. No i jakie problemy miałeś na tych hostingach dotychczasowych? Chodziło o pady serwera, czy raczej przekraczałeś zasoby?
  20. Tak, do CPZ będzie w końcu dostępny moduł komentarzy, jest to w planach. Będzie wtedy można dodawać masowo komentarze, takie strony wyglądają trochę naturalniej. Za moment będzie dostępna aktualizacja WPis o możliwość masowego dodawania komentarzy do Wordpress i jeszcze wprowadzona jest obsługa Joomla 4 (w zakresie dodawania, edytowania, usuwania artykułów), jak podpiąć Joomla 4 pod WPis tutaj: https://www.wpis.doku.pisz.pl/doku.php?id=start:funkcje:dodawanie_stron:joomla Ogólnie od teraz przy nowościach/zmianach zawsze będą informacje podawane w dokumentacji, tutaj można śledzić zmiany: https://www.wpis.doku.pisz.pl/doku.php?do=recent&id=start&show_changes=pages
  21. OKi, zrobiłem aktualizację i teraz powinno sprawdzać poprawnie. Nie ma informacji o aktualizacji, po prostu trzeba ją kliknąć w donlinkage.
  22. Się robi, już sprawdzam. U mnie też ostatnie sprawdzenia pozycji są 1 października.
  23. Jednak cały czas idzie po punycode - podejrzewam że po API zmieniany jest punycode na polskie znaki diakrytyczne i wtedy wychodzą same zera w parametrach. @SEMSTORM - bylibyście tak uprzejmi zwrócić uwagę na opisany problem? Pozdrówka
  24. Semstorm to świetne narzędzie i często się przydaje. Niestety mają bałagan przy IDN, najpierw punycode działało, później z polskimi znakami, teraz znów z punycode. Zmienię na punycode i bedzie dobrze.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności