Skocz do zawartości

mlody0072

Oficjalne
  • Postów

    738
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    12

Treść opublikowana przez mlody0072

  1. Ponieważ stat4seo nadal sprawdza pozycję przez https
  2. Myślę, że jak autorzy poprawią to aby o sam z siebie soft nie generował obciążenia będzie można i 20-40 wątków ustawić na takich parametrach. Obecnie soft żyje sam czyli coś sobie dłubie "po cichu" Dwa wątki podczas restartu o 100% procka ? Tu chyba nie ma znaczenia ile wątków bo i tak procesor idzie na 100%. Przeciez sama z siebie bot który wykonuje kliknięcia przepisywanie danych nie potrzebuje takiej mocy. Ktoś coś spier..... podczas projektowania lub jest to celowe działanie aby listy nie padały tak szybko Nie to, że coś nażekam jakoś to idzię całe profilowanie tym softem.
  3. Nie wiem na jakiej zasadzie działa ten restart ale chyba powinno to inaczej działać. Program powinien sprawdzać poszczególne procesy i mierzyć ich czas wykonywania i jeśli proces nie odpowiada powinien być zabijaniu. W sumie nie wiem program odpalamy nic nie robi tworzymy projekt procesor na 25% leci od razu czyli jak nic nie robi to co on robi? Moze juz o tym ktoś pisał na forum ale nie czytałem tematu. Jeden projekt to minimum 30 godzin przy 10 wątkach. Jaka skuteczność macie na dołączonej bazie 5000+?
  4. Chyba nie takie hasło bo zalogować się nie można ;/
  5. Dokładnie tak tak pisze Michał niby fajnie pojawia się 2-3linki po 5-8zl za miesiąc ale co z tego jak jest jeden dwa dni i znika. Ja lecę na wykupie jakaś kasa jest czyli jeden miesiąc zwraca opłacenie domeny na rok. Pamiętam w 2012 roku jak dostałem ponad 200 zł miesięcznie za serwis a później podnieś do 280zl to były fajne czasy teraz nie ma nawet połowy tego co było wtedy.
  6. Mi jedna, były 3 linki na głównej przez 3 dni i znikło na razie cisza.
  7. @up Dodaj ze nie chcesz linków z tych kategorii i po sprawie.
  8. @Krzysztof_kf - tego nie sprawdzałem najbardziej mi zależało na ograniczeniu ruchu na serwerze, ostatni boty strasznie zamulały mi jednego vpsa. Później przetestuje na jakiejś domenie czy widać linki czy nie w MS i Ahrefs ale tak jak mówi Zgerd wszystkiego nie wytniesz, wchodzą boty pod innymi nazwami i nadal indeksują dalej. Lecz jeśli komuś boty zamulają serwer polecam wrzucić to co podałem u mnie działa
  9. Ja na swoich stronach tak blokuję (może lista nie jest aktualna ale po wrzuceniu do pliku htaccess zbędny ruch zmalał i to znacznie ) <Limit GET POST> #The next line modified by DenyIP order allow,deny #The next line modified by DenyIP #deny from all allow from all </Limit> <Limit PUT DELETE> order deny,allow deny from all </Limit> <Files 403.shtml> order allow,deny allow from all </Files> SetEnvIfNoCase User-Agent .*Twiceler.* bad_bot SetEnvIfNoCase User-Agent .*trovitBot.* bad_bot SetEnvIfNoCase User-Agent .*MJ12bot.* bad_bot SetEnvIfNoCase User-Agent .*AhrefsBot.* bad_bot SetEnvIfNoCase User-Agent .*VoilaBot BETA 1.2.* bad_bot SetEnvIfNoCase User-Agent .*libwww-perl/5.805.* bad_bot SetEnvIfNoCase User-Agent .*Java/1.5.0_11.* bad_bot SetEnvIfNoCase User-Agent .*Sogou web spider/3.0.* bad_bot SetEnvIfNoCase User-Agent .*psbot.* bad_bot SetEnvIfNoCase User-Agent .*Exabot.* bad_bot SetEnvIfNoCase User-Agent .*Charlotte/1.0b.* bad_bot SetEnvIfNoCase User-Agent .*boitho.com-dc.* bad_bot SetEnvIfNoCase User-Agent .*ajSitemap.* bad_bot SetEnvIfNoCase User-Agent .*bot/1.0.* bad_bot SetEnvIfNoCase User-Agent .*panscient.com.* bad_bot SetEnvIfNoCase User-Agent .*Java/1.6.0_11.* bad_bot SetEnvIfNoCase User-Agent .*WebDataCentreBot/1.0.* bad_bot SetEnvIfNoCase User-Agent .*Java.* bad_bot SetEnvIfNoCase User-Agent .*SapphireWebCrawler.* bad_bot SetEnvIfNoCase User-Agent .*Yandex.* bad_bot SetEnvIfNoCase User-Agent .*Baiduspider.* bad_bot SetEnvIfNoCase User-Agent .*Rankivabot.* bad_bot SetEnvIfNoCase User-Agent .*DBLBot/1.0.* bad_bot SetEnvIfNoCase User-Agent "^Black Hole" bad_bot SetEnvIfNoCase User-Agent "^Titan" bad_bot SetEnvIfNoCase User-Agent "^WebStripper" bad_bot SetEnvIfNoCase User-Agent "^NetMechanic" bad_bot SetEnvIfNoCase User-Agent "^CherryPicker" bad_bot SetEnvIfNoCase User-Agent "^EmailCollector" bad_bot SetEnvIfNoCase User-Agent "^EmailSiphon" bad_bot SetEnvIfNoCase User-Agent "^WebBandit" bad_bot SetEnvIfNoCase User-Agent "^EmailWolf" bad_bot SetEnvIfNoCase User-Agent "^ExtractorPro" bad_bot SetEnvIfNoCase User-Agent "^CopyRightCheck" bad_bot SetEnvIfNoCase User-Agent "^Crescent" bad_bot SetEnvIfNoCase User-Agent "^Wget" bad_bot SetEnvIfNoCase User-Agent "^SiteSnagger" bad_bot SetEnvIfNoCase User-Agent "^ProWebWalker" bad_bot SetEnvIfNoCase User-Agent "^CheeseBot" bad_bot SetEnvIfNoCase User-Agent "^Teleport" bad_bot SetEnvIfNoCase User-Agent "^TeleportPro" bad_bot SetEnvIfNoCase User-Agent "^MIIxpc" bad_bot SetEnvIfNoCase User-Agent "^Telesoft" bad_bot SetEnvIfNoCase User-Agent "^Website Quester" bad_bot SetEnvIfNoCase User-Agent "^WebZip" bad_bot SetEnvIfNoCase User-Agent "^moget/2.1" bad_bot SetEnvIfNoCase User-Agent "^WebZip/4.0" bad_bot SetEnvIfNoCase User-Agent "^WebSauger" bad_bot SetEnvIfNoCase User-Agent "^WebCopier" bad_bot SetEnvIfNoCase User-Agent "^NetAnts" bad_bot SetEnvIfNoCase User-Agent "^Mister PiX" bad_bot SetEnvIfNoCase User-Agent "^WebAuto" bad_bot SetEnvIfNoCase User-Agent "^TheNomad" bad_bot SetEnvIfNoCase User-Agent "^WWW-Collector-E" bad_bot SetEnvIfNoCase User-Agent "^RMA" bad_bot SetEnvIfNoCase User-Agent "^libWeb/clsHTTP" bad_bot SetEnvIfNoCase User-Agent "^asterias" bad_bot SetEnvIfNoCase User-Agent "^httplib" bad_bot SetEnvIfNoCase User-Agent "^turingos" bad_bot SetEnvIfNoCase User-Agent "^spanner" bad_bot SetEnvIfNoCase User-Agent "^InfoNaviRobot" bad_bot SetEnvIfNoCase User-Agent "^Harvest/1.5" bad_bot SetEnvIfNoCase User-Agent "^Bullseye/1.0" bad_bot SetEnvIfNoCase User-Agent "^Mozilla/4.0 (compatible; BullsEye; Windows 95)" bad_bot SetEnvIfNoCase User-Agent "^Crescent Internet ToolPak HTTP OLE Control v.1.0" bad_bot SetEnvIfNoCase User-Agent "^CherryPickerSE/1.0" bad_bot SetEnvIfNoCase User-Agent "^CherryPicker /1.0" bad_bot SetEnvIfNoCase User-Agent "^WebBandit/3.50" bad_bot SetEnvIfNoCase User-Agent "^NICErsPRO" bad_bot SetEnvIfNoCase User-Agent "^Microsoft URL Control - 5.01.4511" bad_bot SetEnvIfNoCase User-Agent "^DittoSpyder" bad_bot SetEnvIfNoCase User-Agent "^Foobot" bad_bot SetEnvIfNoCase User-Agent "^WebmasterWorldForumBot" bad_bot SetEnvIfNoCase User-Agent "^SpankBot" bad_bot SetEnvIfNoCase User-Agent "^BotALot" bad_bot SetEnvIfNoCase User-Agent "^lwp-trivial/1.34" bad_bot SetEnvIfNoCase User-Agent "^lwp-trivial" bad_bot SetEnvIfNoCase User-Agent "^Wget/1.6" bad_bot SetEnvIfNoCase User-Agent "^BunnySlippers" bad_bot SetEnvIfNoCase User-Agent "^Microsoft URL Control - 6.00.8169" bad_bot SetEnvIfNoCase User-Agent "^URLy Warning" bad_bot SetEnvIfNoCase User-Agent "^Wget/1.5.3" bad_bot SetEnvIfNoCase User-Agent "^LinkWalker" bad_bot SetEnvIfNoCase User-Agent "^cosmos" bad_bot SetEnvIfNoCase User-Agent "^moget" bad_bot SetEnvIfNoCase User-Agent "^hloader" bad_bot SetEnvIfNoCase User-Agent "^humanlinks" bad_bot SetEnvIfNoCase User-Agent "^LinkextractorPro" bad_bot SetEnvIfNoCase User-Agent "^Offline Explorer" bad_bot SetEnvIfNoCase User-Agent "^Mata Hari" bad_bot SetEnvIfNoCase User-Agent "^LexiBot" bad_bot SetEnvIfNoCase User-Agent "^Web Image Collector" bad_bot SetEnvIfNoCase User-Agent "^The Intraformant" bad_bot SetEnvIfNoCase User-Agent "^True_Robot/1.0" bad_bot SetEnvIfNoCase User-Agent "^True_Robot" bad_bot SetEnvIfNoCase User-Agent "^BlowFish/1.0" bad_bot SetEnvIfNoCase User-Agent "^JennyBot" bad_bot SetEnvIfNoCase User-Agent "^MIIxpc/4.2" bad_bot SetEnvIfNoCase User-Agent "^BuiltBotTough" bad_bot SetEnvIfNoCase User-Agent "^ProPowerBot/2.14" bad_bot SetEnvIfNoCase User-Agent "^BackDoorBot/1.0" bad_bot SetEnvIfNoCase User-Agent "^toCrawl/UrlDispatcher" bad_bot SetEnvIfNoCase User-Agent "^WebEnhancer" bad_bot SetEnvIfNoCase User-Agent "^TightTwatBot" bad_bot SetEnvIfNoCase User-Agent "^suzuran" bad_bot SetEnvIfNoCase User-Agent "^VCI WebViewer VCI WebViewer Win32" bad_bot SetEnvIfNoCase User-Agent "^VCI" bad_bot SetEnvIfNoCase User-Agent "^Szukacz/1.4" bad_bot SetEnvIfNoCase User-Agent "^QueryN Metasearch" bad_bot SetEnvIfNoCase User-Agent "^Openfind data gathere" bad_bot SetEnvIfNoCase User-Agent "^Openfind" bad_bot SetEnvIfNoCase User-Agent "^Xenu's Link Sleuth 1.1c" bad_bot SetEnvIfNoCase User-Agent "^Xenu's" bad_bot SetEnvIfNoCase User-Agent "^Zeus" bad_bot SetEnvIfNoCase User-Agent "^RepoMonkey Bait & Tackle/v1.01" bad_bot SetEnvIfNoCase User-Agent "^RepoMonkey" bad_bot SetEnvIfNoCase User-Agent "^Zeus 32297 Webster Pro V2.9 Win32" bad_bot SetEnvIfNoCase User-Agent "^Webster Pro" bad_bot SetEnvIfNoCase User-Agent "^EroCrawler" bad_bot SetEnvIfNoCase User-Agent "^LinkScan/8.1a Unix" bad_bot SetEnvIfNoCase User-Agent "^Keyword Density/0.9" bad_bot SetEnvIfNoCase User-Agent "^Kenjin Spider" bad_bot SetEnvIfNoCase User-Agent "^Cegbfeieh" bad_bot order allow,deny deny from env=bad_bot allow from all jak ktoś by miał lepszą listę to bym poprosił o udostępnienie może być na PW
  10. Jeśli komuś potrzebne proxy do postowania to mogę udostępnić taki pakiet. Więcej szczegółów na PW.
  11. To może tak to rozwiązać ? <?php $api_key = 'api_key'; // tu podać kod API echo file_get_contents('https://www.proxymarket.pl/api/get/'.$api_key); ?> Wrzucamy to na jeden z serwerów który ma dostęp do pakietu i inne aplikacje kierujemy na plik w którym jest wyżej wymieniony kod ?
  12. Oj się kończy co moje dwie strony wyświetlają jak to Oni ujeli "Sprawdzanie wydajności kodu" https://www.fotosik.pl/pokaz_obrazek/0a16ed49691d905d.html trzeba uciekać bo schodzi na psy dodałem 4 strony PR > 2 po wyświetlali reklamy przez 2-3 dni i odrzucili. Jeszcze dwie domeny są "Na weryfikacji" Pozdrawiam
  13. @ap_seo tak jak w USM URL: https://www.google.pl...hl=pl&q=wakacje String: wakacje Przeprowadziłem przed chwilo test USM vs SB Proxy Dobre / ALL SB 312/672 USM 530/672 USM dużo szybciej sprawdził wszystkie proxy przy takiej samej ilości wątków.
  14. Oto oficjalna wiadomość od supportu
  15. Też korzystałem z usług tego sklepu katalogowanie kupiłem dla 6 stron raport otrzymałem też z dużym opóźnieniem zamówienie 6.05.2012 a raport doszedł 30.05.2012. W opisie było napisane, że katalogi mają od PR od 1 do 4 lecz wiele miało juz PR=0 (wysłałem im aktualną listę z pr bo może nie mają czym sprawdzić). Na wiadomość od mnie o tym fakcie dostałem taką odpowiedz Czyli pagerank jest aktualizowany 3-4 tygodnie Opisy dodane w katalogach .... nie jak by to napisać wszędzie są takie same brak synonimów. Drogo nie było ale to nie świadczy o tym aby robić na odwal. Pozdrawiam i nie mocno polecam ale nikomu nie odradzam wiadomo każdy ma swoje zdanie.
  16. Ja 100$ to uzbieram pewnie po 3 miesiącach dopiero bo nie wczesniej. Wiec sie nie opłaca
  17. Pozwolę się wtrącić i sie poradzić czy lepiej jak sie wybiera Czek - dostawa standardowa Czek - zabezpieczona dostawa ekspresowa (Opłata za przelew US$ 21,00) to lepiej zapłacić czy nie ?
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności