-
Postów
1452 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez sleaquit
-
Pozycjonowanie jest (prawie) dla każdego
sleaquit odpowiedział(a) na mrtn temat w Dla początkujących
ukryty tzn w sensie ukryty dla ludzkiego oka ale w kodzie jest jawny i widoczny -
czy ciecia beda dotyczyc tez starszych stron ktore wyswietlaja po 15 linkow systemowych? jesli tak to czy moze seomatik tak jak gotlink sam zredukuje liczbe wysylanych linkow systemowych z 15 do 14 aby nie bylo ciec, czy kazdy user starych stron ma sam to robic we wlasnym zakresie?
-
czasami sm sie 'przycina', mozliwe rowniez ze zabraklo miejsca w kategorii - maska, mozliwe ze przydzielilo ale strona wyleciala wiec zdjelo itd
-
# YandexBot deny from 178.154.160.30 # MJ12bot deny from 84.202.172.70 # SiteBot deny from 212.113.35.162 # GeoHasher/Nutch-1.0 deny from 174.121.74.234 wspolny atak na sporo stron i o malo nie zablokowali mi konta...
-
stare strony wyswietlaja wiecej linkow - 15 linkowe nie zostaly przeciez uciete do 10 szkoda ze przy zmianach straci sie czesc starych linkow (ludzie przycinaja systemowe lokalizacje i stare linki laduja na innych swiezych lokalizacjach) ale mam nadzieje ze wzrost mocy systemu to wynagrodzi, bo ja z tego co widzialem to wymienilo mi z 20-30% lokalizacji jak nie wiecej bo nie zagladam codziennie widze natomiast jeszcze jedna zmiane o ktorej nie ma nic powiedziane - pkt za staz z docelowych 3k zostaly przyciete do 1,5k oznacza to ze teraz jest naliczany 1pkt co 2 dni a nie codziennie jak poprzednio? - prosilbym o info jak to teraz wyglada
-
dla arniego najbardziej upierdliwy moze byc rome/java bo czasami jak sie zapetli to moze wyjesc kilkadziesiat mb na strone # Rome Client i Java/1.6.0_14 deny from 67.210.218.100 deny from 67.210.218.103 # Jakarta i Moreoverbot deny from 64.94.66.97 # radian6_default deny from 142.166.170.100
-
czy za nowych 5 linkow otrzyma sie 50% tego co aktualnie za 10? (pomijajac bonusy) to by sprawilo ze za strone otrzyma sie ok 1/3 mnie pkt niz obecnie co wymusi podlaczenie innego stalego swl jesli nie chce sie rotacji, a alternatywy wlasciwie nie ma... moze warto by pomyslec o bonusie za strony z max 6-7 wychodzacymi? takie lokalizacje sa jednak napewno silniejsze niz gdy jest 15-19 wychodacych, zwlaszcza ze jak mniemam kosz
-
hmm miesiac temu 10 osob dostalo bonus na 3 miesiace w tym miesiacu kolejne 10 (albo w czesci te same) osob rowniez bonus na 3 miesiace wiec po 3 miesiacach to sie ladnie nawarstwi... rozumiem ze te pkt sa kosztem userow poza tym top5?
-
widze ze systemu ubylo 1k stron - wlasciciele zabrali czy zdezaktywowaly sie po tym usuwaniu? ogolnie to widze ze sporo linkow mi zdjelo ze slabymi lokalizacjami, wiec pomysl swietny
-
a co z moja propozycja z posta wyzej? https://www.forum.optymalizacja.com/index.p...st&p=711646
-
to ze link laduje na niezaindeksowanej podstronie wcale nie obniza jego wartosci - swietnie sprawdzaja sie linki bonusowe, zwlaszcza gdy link wyladuje na stronie z site w g >1k problem sa jednak strony ktore ogolny zaindeksowany site maja kilkanascie przez np ponad miesiac od wyladowaniu na nim linka (a wiec co najmniej miesiac od dodania do systemu) - bo skoro wlasciciel o to nie dba to na samoistne zaindeksowanie podstrony z wlasna lokalizacja przy tak podlinkwoanej stronie tez raczej liczyc nie mozesz dlatego zglaszalem poprzednie uwagi odnosnie takich stron bo tylko one znaczaco obnizaja moc systemu oczywiscie moje rozwazania dotycza stron z fizycznym duzym site (i sciagnietych 100 stronach) a zaindeksowanym minimum aby dodac do systemu przy okazji chcialbym zglosic propozycje wprowadzenia w eksporcie lokalizacji z calej grupy takze kolumny z nr id linku, to by wlasciwie zalatwilo problem masowego blokowania powyzszych stron i zdejmowania takich lokalizacji - a obciazenie mocy obliczeniowej byloby napewno znikome kazdy juz we wlasnym zakresie przy pomocy zewnetrznych programow bez problemu by wylapal wiele domen z site w g<15 a fizycznym duzym i mialby na tacy gdzie ktore domeny zablokowac a ktore linki zdjac - bo podlinkowywujac kilkaset wpisow szukanie recznie jest niewykonalne cala kwestia rozbija sie o brak mozliwosci wyszukania ich w sytemie a to by zalatwilo sprawe zewnetrznymi metodami
-
multilinkiem zmiana co 1 link powiazania anchorow z urlami max = liczba urli (300) x ile linkow na fraze edit tylko ze sm nie daje wiecej niz 100 dziennie wiec ewentualnei rozbij to sobie na 3 multilinki
-
no fakt, nie posiadacie wykresu obciazenia maszyny a co sadzicie o atumatycznej deaktywacji strony gdy site jest na takim drastycznym poziomie? skoro i tak gdy jakas strona jest wyciagana z systemu to linki tez z niej sa masowo zdejmowane automatyczna deaktywacja przy co 2tyg sprawdzaniu site bylaby napewno mniej zasobozerna niz operacje na kontach wszystkich userow ewentualnie... wylaczajac zasoby systemowe a wlaczajac czynnik ludzki - moze zezwolilibyscie na reczne zglaszanie takich domen? bo na ta chwile znalazlem tego kilkanascie domen*subdomeny
-
mozna dorobic nowy guzik przy usuwaniu linku z lokalizacji - tak aby byla mozliwosc usuniecia wszystkich swoich linkow (takze z np innych grup) z danego serwisu (no i jego zablokowanie)? byloby to bardzo pomocne gdy ma sie przydzielonych w obrebie jednej domeny kilkadziesiat linkow (roznych) na domenach ktore wlasciciel sobie olal pod wzgledem linkowania i site spadl im do 2-5 problem jest szczegolnie uciazliwy gdy masowo podlinkowywuje sie wpisy, dostaje sie wtedy sporo linkow na 1 domenie, przegladajac wiec 100 lokalizacji mozna teoretycznie przejzec i usunac kilkaset i wiecej bezwartosciowych linkow, co przy pojedynczym klikaniu jest niewykonalne druga sprawa co sadzicie o automatycznej deaktywacji serwisow (i zdjecie z nich linkow) gdy site im spadnie ponizej np 10 (lub 15 gdy wejdzie ten limit) bo trzymanie w pelni obdzielonego serwisu gdzie site w g ma 5 i nawet domena glowna jest poza indeksem mija sie z celem...
-
csv
-
system staly wymaga czasu czasami jest tez tak ze strone katalogami wbijasz na np 15 miejsce, a walka zaczyna sie od miejsca 12 i mimo odpalenia 20 zaplecz strona w pierwszym miesiacu drgnie tylko o 2-3 oczka a jak tobie sie mocno spieszy to przepinguj sobie lokalizacje
-
ale w tym wypadku strona sie laduje, jest szablon, linki sa w menu lub stopce, tylko ze zamiast np artykulu jest 404 lub inny brak tresci, dobrze to widac na wordpressach, i taki url mozna zaindeksowac w wypadku styli niestety nic poza nimi sie nie laduje, tylko goly styl
-
mozna zrobic cos z pobranymi podstronami z rozszerzeniem css? pisalem juz o tym wczesniej, ale widze ze system dalej przydziela na nich linki swoja droga w jaki sposob mogl te podstrony zliczyc??
-
czy wraz z tym cieciem utnie pkt za domeny lub zmieni sie koszt przydzielonych linkow? linki beda ucinane na chybil trafil?
-
przyznam szczerze ze liczylem na wiecej tak wogole to jaki procent stron w systemie ma powiedzmy od miesiac nie zebrane wiecej niz te 15 podstron? tak aby ocenic ile jest stron z 'fizycznym' malym site
-
autolinkwoanie jest dobre z mysla o przyszlosci (po 3 miesiacach od dodania), ale nie podniesie standardu stron w momencie ich wchodzenia do systemu zreszta jak napisal admin, ze blokujac sobie linki wysylane na niechciane strony beda na nim ladowac linki z autolinkowania, problem w tym ze wiele z tych domen ma mizerny site, i jednoczesnie sciagnietych 100 podstron, sam 2 czy 3 razy na niektorych wyrywkowo sprawdzonych domenach widzialem site <10...
-
ja z kolei poszedlbym w przyjmowanie domen z wiekszym minimum zaindeksowanych stron niz 10 teraz z tego co widze troche linkow laduje na niezaindeksowanych podstronach gdzie site domeny w g jest 15-50, a takiej stronie bardzo latwo nawet pingiem sciagnac dla systemu 100 podstron i zebrac full pkt, co sprawia ze jednak wiele linkow musi sobie dlugo poczekac az dana strona zostanie zaindeksowana gdyby link wyladowal na juz zaindeksowanej stronie - w wiekszosci wypadkow w miare latwo ja zreindeksowac, latwiej niz zaindeksowac od poczatu skoro system ma zbierac 100 podstron niech juz wymagany site w g bedzie na tym poziomie, i jesli to mozliwe calkowicie zmienic metode sciagania podstron dla nowo przyjmowanych domen, sprawdzic czy zaindeksowany site w g ma 100, i podstrony sciagnac z indeksu googla, przy starych stronach zostawic juz jak jest skoro linki juz sa przydzielone. wtedy mamy pewnosc ze linki laduja na stronach zaindeksowanych, a o reindeksacje duzo latwiej, bo nie raz nawet pingiem mozna to zrobic... jakby jednak nie patrzec, zwiekszenie minimum site sprawi ze domeny przynajmniej przez dluzszy czas beda linkowane, co tez w pewnym stopniu podniesie ich sile, nawet jesli niewiele...
-
dajac do 5 linkow mozna jeszcze na stronach z wysokim pr, bo zamiast pkt za linki dostajesz pkt za pr
-
tutaj bardziej przydaloby sie sprawdzanie w momencie zliczania podstron niz w momencie przydzielania linku edit z 2 wzgledow 1) latwiej przeindeksowac strone niz zaindeksowac 2) problem jest z forami, czesc ma sesje w urlu a na strone z sesja bot drugi raz juz nie trafi, wiec mozna liczyc tylo i wylacznie na linki bonusowe