Skocz do zawartości

sleaquit

Forumowicze
  • Postów

    1452
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez sleaquit

  1. ukryty tzn w sensie ukryty dla ludzkiego oka ale w kodzie jest jawny i widoczny
  2. czy ciecia beda dotyczyc tez starszych stron ktore wyswietlaja po 15 linkow systemowych? jesli tak to czy moze seomatik tak jak gotlink sam zredukuje liczbe wysylanych linkow systemowych z 15 do 14 aby nie bylo ciec, czy kazdy user starych stron ma sam to robic we wlasnym zakresie?
  3. czasami sm sie 'przycina', mozliwe rowniez ze zabraklo miejsca w kategorii - maska, mozliwe ze przydzielilo ale strona wyleciala wiec zdjelo itd
  4. # YandexBot deny from 178.154.160.30 # MJ12bot deny from 84.202.172.70 # SiteBot deny from 212.113.35.162 # GeoHasher/Nutch-1.0 deny from 174.121.74.234 wspolny atak na sporo stron i o malo nie zablokowali mi konta...
  5. stare strony wyswietlaja wiecej linkow - 15 linkowe nie zostaly przeciez uciete do 10 szkoda ze przy zmianach straci sie czesc starych linkow (ludzie przycinaja systemowe lokalizacje i stare linki laduja na innych swiezych lokalizacjach) ale mam nadzieje ze wzrost mocy systemu to wynagrodzi, bo ja z tego co widzialem to wymienilo mi z 20-30% lokalizacji jak nie wiecej bo nie zagladam codziennie widze natomiast jeszcze jedna zmiane o ktorej nie ma nic powiedziane - pkt za staz z docelowych 3k zostaly przyciete do 1,5k oznacza to ze teraz jest naliczany 1pkt co 2 dni a nie codziennie jak poprzednio? - prosilbym o info jak to teraz wyglada
  6. dla arniego najbardziej upierdliwy moze byc rome/java bo czasami jak sie zapetli to moze wyjesc kilkadziesiat mb na strone # Rome Client i Java/1.6.0_14 deny from 67.210.218.100 deny from 67.210.218.103 # Jakarta i Moreoverbot deny from 64.94.66.97 # radian6_default deny from 142.166.170.100
  7. czy za nowych 5 linkow otrzyma sie 50% tego co aktualnie za 10? (pomijajac bonusy) to by sprawilo ze za strone otrzyma sie ok 1/3 mnie pkt niz obecnie co wymusi podlaczenie innego stalego swl jesli nie chce sie rotacji, a alternatywy wlasciwie nie ma... moze warto by pomyslec o bonusie za strony z max 6-7 wychodzacymi? takie lokalizacje sa jednak napewno silniejsze niz gdy jest 15-19 wychodacych, zwlaszcza ze jak mniemam kosz
  8. hmm miesiac temu 10 osob dostalo bonus na 3 miesiace w tym miesiacu kolejne 10 (albo w czesci te same) osob rowniez bonus na 3 miesiace wiec po 3 miesiacach to sie ladnie nawarstwi... rozumiem ze te pkt sa kosztem userow poza tym top5?
  9. widze ze systemu ubylo 1k stron - wlasciciele zabrali czy zdezaktywowaly sie po tym usuwaniu? ogolnie to widze ze sporo linkow mi zdjelo ze slabymi lokalizacjami, wiec pomysl swietny
  10. a co z moja propozycja z posta wyzej? https://www.forum.optymalizacja.com/index.p...st&p=711646
  11. to ze link laduje na niezaindeksowanej podstronie wcale nie obniza jego wartosci - swietnie sprawdzaja sie linki bonusowe, zwlaszcza gdy link wyladuje na stronie z site w g >1k problem sa jednak strony ktore ogolny zaindeksowany site maja kilkanascie przez np ponad miesiac od wyladowaniu na nim linka (a wiec co najmniej miesiac od dodania do systemu) - bo skoro wlasciciel o to nie dba to na samoistne zaindeksowanie podstrony z wlasna lokalizacja przy tak podlinkwoanej stronie tez raczej liczyc nie mozesz dlatego zglaszalem poprzednie uwagi odnosnie takich stron bo tylko one znaczaco obnizaja moc systemu oczywiscie moje rozwazania dotycza stron z fizycznym duzym site (i sciagnietych 100 stronach) a zaindeksowanym minimum aby dodac do systemu przy okazji chcialbym zglosic propozycje wprowadzenia w eksporcie lokalizacji z calej grupy takze kolumny z nr id linku, to by wlasciwie zalatwilo problem masowego blokowania powyzszych stron i zdejmowania takich lokalizacji - a obciazenie mocy obliczeniowej byloby napewno znikome kazdy juz we wlasnym zakresie przy pomocy zewnetrznych programow bez problemu by wylapal wiele domen z site w g<15 a fizycznym duzym i mialby na tacy gdzie ktore domeny zablokowac a ktore linki zdjac - bo podlinkowywujac kilkaset wpisow szukanie recznie jest niewykonalne cala kwestia rozbija sie o brak mozliwosci wyszukania ich w sytemie a to by zalatwilo sprawe zewnetrznymi metodami
  12. multilinkiem zmiana co 1 link powiazania anchorow z urlami max = liczba urli (300) x ile linkow na fraze edit tylko ze sm nie daje wiecej niz 100 dziennie wiec ewentualnei rozbij to sobie na 3 multilinki
  13. no fakt, nie posiadacie wykresu obciazenia maszyny a co sadzicie o atumatycznej deaktywacji strony gdy site jest na takim drastycznym poziomie? skoro i tak gdy jakas strona jest wyciagana z systemu to linki tez z niej sa masowo zdejmowane automatyczna deaktywacja przy co 2tyg sprawdzaniu site bylaby napewno mniej zasobozerna niz operacje na kontach wszystkich userow ewentualnie... wylaczajac zasoby systemowe a wlaczajac czynnik ludzki - moze zezwolilibyscie na reczne zglaszanie takich domen? bo na ta chwile znalazlem tego kilkanascie domen*subdomeny
  14. mozna dorobic nowy guzik przy usuwaniu linku z lokalizacji - tak aby byla mozliwosc usuniecia wszystkich swoich linkow (takze z np innych grup) z danego serwisu (no i jego zablokowanie)? byloby to bardzo pomocne gdy ma sie przydzielonych w obrebie jednej domeny kilkadziesiat linkow (roznych) na domenach ktore wlasciciel sobie olal pod wzgledem linkowania i site spadl im do 2-5 problem jest szczegolnie uciazliwy gdy masowo podlinkowywuje sie wpisy, dostaje sie wtedy sporo linkow na 1 domenie, przegladajac wiec 100 lokalizacji mozna teoretycznie przejzec i usunac kilkaset i wiecej bezwartosciowych linkow, co przy pojedynczym klikaniu jest niewykonalne druga sprawa co sadzicie o automatycznej deaktywacji serwisow (i zdjecie z nich linkow) gdy site im spadnie ponizej np 10 (lub 15 gdy wejdzie ten limit) bo trzymanie w pelni obdzielonego serwisu gdzie site w g ma 5 i nawet domena glowna jest poza indeksem mija sie z celem...
  15. system staly wymaga czasu czasami jest tez tak ze strone katalogami wbijasz na np 15 miejsce, a walka zaczyna sie od miejsca 12 i mimo odpalenia 20 zaplecz strona w pierwszym miesiacu drgnie tylko o 2-3 oczka a jak tobie sie mocno spieszy to przepinguj sobie lokalizacje
  16. ale w tym wypadku strona sie laduje, jest szablon, linki sa w menu lub stopce, tylko ze zamiast np artykulu jest 404 lub inny brak tresci, dobrze to widac na wordpressach, i taki url mozna zaindeksowac w wypadku styli niestety nic poza nimi sie nie laduje, tylko goly styl
  17. mozna zrobic cos z pobranymi podstronami z rozszerzeniem css? pisalem juz o tym wczesniej, ale widze ze system dalej przydziela na nich linki swoja droga w jaki sposob mogl te podstrony zliczyc??
  18. czy wraz z tym cieciem utnie pkt za domeny lub zmieni sie koszt przydzielonych linkow? linki beda ucinane na chybil trafil?
  19. przyznam szczerze ze liczylem na wiecej tak wogole to jaki procent stron w systemie ma powiedzmy od miesiac nie zebrane wiecej niz te 15 podstron? tak aby ocenic ile jest stron z 'fizycznym' malym site
  20. autolinkwoanie jest dobre z mysla o przyszlosci (po 3 miesiacach od dodania), ale nie podniesie standardu stron w momencie ich wchodzenia do systemu zreszta jak napisal admin, ze blokujac sobie linki wysylane na niechciane strony beda na nim ladowac linki z autolinkowania, problem w tym ze wiele z tych domen ma mizerny site, i jednoczesnie sciagnietych 100 podstron, sam 2 czy 3 razy na niektorych wyrywkowo sprawdzonych domenach widzialem site <10...
  21. ja z kolei poszedlbym w przyjmowanie domen z wiekszym minimum zaindeksowanych stron niz 10 teraz z tego co widze troche linkow laduje na niezaindeksowanych podstronach gdzie site domeny w g jest 15-50, a takiej stronie bardzo latwo nawet pingiem sciagnac dla systemu 100 podstron i zebrac full pkt, co sprawia ze jednak wiele linkow musi sobie dlugo poczekac az dana strona zostanie zaindeksowana gdyby link wyladowal na juz zaindeksowanej stronie - w wiekszosci wypadkow w miare latwo ja zreindeksowac, latwiej niz zaindeksowac od poczatu skoro system ma zbierac 100 podstron niech juz wymagany site w g bedzie na tym poziomie, i jesli to mozliwe calkowicie zmienic metode sciagania podstron dla nowo przyjmowanych domen, sprawdzic czy zaindeksowany site w g ma 100, i podstrony sciagnac z indeksu googla, przy starych stronach zostawic juz jak jest skoro linki juz sa przydzielone. wtedy mamy pewnosc ze linki laduja na stronach zaindeksowanych, a o reindeksacje duzo latwiej, bo nie raz nawet pingiem mozna to zrobic... jakby jednak nie patrzec, zwiekszenie minimum site sprawi ze domeny przynajmniej przez dluzszy czas beda linkowane, co tez w pewnym stopniu podniesie ich sile, nawet jesli niewiele...
  22. dajac do 5 linkow mozna jeszcze na stronach z wysokim pr, bo zamiast pkt za linki dostajesz pkt za pr
  23. tutaj bardziej przydaloby sie sprawdzanie w momencie zliczania podstron niz w momencie przydzielania linku edit z 2 wzgledow 1) latwiej przeindeksowac strone niz zaindeksowac 2) problem jest z forami, czesc ma sesje w urlu a na strone z sesja bot drugi raz juz nie trafi, wiec mozna liczyc tylo i wylacznie na linki bonusowe
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności