Skocz do zawartości

e-weblink.com


Rekomendowane odpowiedzi

  • Odpowiedzi 12,9 tys.
  • Dodano
  • Ostatniej odpowiedzi

@Xann i spółka - znalazłem rozwiązanie.

problemem są chmody czyli prawa do zapisu plików. na wielu serwerach skrypt przy autoryzacji tworzy plik domena.wbl, któremu nadaje prawa 644 i tu jest problem. jeżeli wywala Wam strony tak jak mi - dziennie kilka mimo, że system jest zainstalowany i da się zautoryzować - ustawcie chmody na 666 plikom *.wbl (nie wiem jak się ma 'liczba szatana' do systemu)

uważam, że ta informacja powinna znaleźć się w oficjalnym FAQ

sprawa druga - sprawdzanie podstron. @Xann mam taki problem - kupiłem domenki bo miały PR. mają one zaindeksowane strony w google i widze, że Wasz bot sprawdza indeks i wchodzi na te strony i oczywiście dostaje 404 - nie ma skryptu. w jaki sposób przed tym się obronić? czy mam wywalić te strony 'ręcznie' z indeksu czy można jakoś poinformować system o tych stronach by je krótko mówiąc olewał.

Budowanie bazy do ScrapeBox'a nigdy nie było jeszcze tak szybkie i tak tanie!

Rabat dla użytkowników PiO!
Odnośnik do komentarza
Udostępnij na innych stronach

Jeżeli sprawa pierwsza o nadawaniu chamodow 666 na plik *.wbl jest roziwązaniem zotaniesz obficie nagrodzony

Sprawa druga jest taka że jest to fakt upierdliwe ale rozwiązaniem jest takie ze albo usuniesz przez webmaster tols z indexu nie istniejące strony albo olejesz i poczekasz aż same znikną a od czasu do czasu klikniesz autorzacje

Marketing internetowy dla firm

 

Odnośnik do komentarza
Udostępnij na innych stronach

@Xann: co do chmodów - chyba działa, bo aktywowałem serwis dzięki temu nie usuwając pliku wbl - czy działa to się okaże przy następnych odwiedzinach bota z systemu

co do tych stron w indeksie - muszę wybrać opcję drugą do momentu aż nie pojawią się nowe podstrony, bo nie chcę by mi system przestał zliczanie punktów z tych stron

Budowanie bazy do ScrapeBox'a nigdy nie było jeszcze tak szybkie i tak tanie!

Rabat dla użytkowników PiO!
Odnośnik do komentarza
Udostępnij na innych stronach

sprawa druga - sprawdzanie podstron. @Xann mam taki problem - kupiłem domenki bo miały PR. mają one zaindeksowane strony w google i widze, że Wasz bot sprawdza indeks i wchodzi na te strony i oczywiście dostaje 404 - nie ma skryptu. w jaki sposób przed tym się obronić? czy mam wywalić te strony 'ręcznie' z indeksu czy można jakoś poinformować system o tych stronach by je krótko mówiąc olewał.

a może taki wpis w .h dać

RewriteEngine On

ErrorDocument 404 https://www.domenaglowna.pl

Odnośnik do komentarza
Udostępnij na innych stronach

@Czachapl - masz rację :) za dużo siedze przy komputerze chyba :) można nawet dać głupie przekierowanie 301

//P.S.

mój sposób działa - zaktualizowałem wszystkie moje strony i na żadnej nie wyrzuciło tym razem instalacji

//P.S.2

ustawieni chmod 666 jest najprostszym rozwiązaniem. problem pojawia się tam gdzie serwer nadaje plikom stworzonym przez skrypty jako właściciela np. 'apache' lub 'www'. możliwe, że rozwiązaniem jest też reset właściciela, ale ja polecam po prostu zmianę uprawnień do plików (na niekótrych serwerach nie można tego zrobić jeżeli tak jak napisałem właścicielem jest 'apache' lub 'www' wtedy trzeba zrestować te ustawienia). mam nadzieję, że za bardzo nie zakręciłem...

w direct admin cała operacja sprowadza się do kilku klików, ale trzeba to zrobić dla każdej domeny osobno

Budowanie bazy do ScrapeBox'a nigdy nie było jeszcze tak szybkie i tak tanie!

Rabat dla użytkowników PiO!
Odnośnik do komentarza
Udostępnij na innych stronach

@Czachapl - masz rację :) za dużo siedze przy komputerze chyba :) można nawet dać głupie przekierowanie 301

akurat na 301 boty są uczulone, ale pomysł czachy z 404 myślę, że wielu osobom zniweluje liczbę otrzymywanych maili o wyautoryzowanych stronach.

co do chmodow i szatanskiej liczby to nie jest to problem ogolny, dotyczy serwerów z określoną polityką bezpieczeństwa. Jeśli na większości serwerów ustawienie chmodów 666 na pliki z linkami rozwiąże problemy to postaramy się uzbroić nową instalkę w automatyczne ustawianie tych chmodów.

Pozdrawiam,

Gatzec

"Ci co spamują są dla mnie niczym... niczym bracia!"

Odnośnik do komentarza
Udostępnij na innych stronach

ErrorDocument 404 [pełny URL] to jest właśnie przekierowanie 301/302.

Ale ma swój numer błędu za który jest żółta kartka dla danej strony, a nie natychmiastowy odrzut jak to jest w przypadku błędów z serii 3xx

Pozdrawiam,

Gatzec

"Ci co spamują są dla mnie niczym... niczym bracia!"

Odnośnik do komentarza
Udostępnij na innych stronach

Jak już pisałem, taki ErrorDocument wysyła 302 na stronę główną zamiast 404.

Faktycznie - zwracam honor. W takim razie htaccess na niewiele się zda. Zastanowimy się, czy nie znieść odrzucenia za trzysetki na podstronach.

Pozdrawiam,

Gatzec

"Ci co spamują są dla mnie niczym... niczym bracia!"

Odnośnik do komentarza
Udostępnij na innych stronach

@gaztec: to czekam na oficjalny komunikat :) masz rację problem jest głównie na serwerach współdzielonych. ktoś tu pisał, że na dedyku nie występuje. wszystko to sprawa konfiguracji, ale nie każdy umie to zrobić i ma taką możliwość.

a tymczasem - kto ma problem taki jak ja niech sobie ręcznie ustawi 666 - nie mogę się pozbyć tych skojarzeć z diabłem :)

P.S. baner e-weba na ewebicitesach ma diablicę na przodzie... @Xann powiedz szczerze - masz różki? :)

Budowanie bazy do ScrapeBox'a nigdy nie było jeszcze tak szybkie i tak tanie!

Rabat dla użytkowników PiO!
Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności