-
Postów
1691 -
Dołączył
-
Ostatnia wizyta
Contact Methods
-
Website URL
https://blazalek.com
-
Twitter
blazalek
Profile Information
-
Gender
Male
Ostatnie wizyty
4625 wyświetleń profilu
Osiągnięcia melassa
Newbie (1/14)
6
Reputacja
-
melassa obserwuje zawartość Poszukuje dobrego i taniego szkopskiego hostingu , WebDNA.io - narzędzie do wykrywania toksycznych linków , Fraza konkursowa - Mistrzostwa 2013 Start! i 2 innych
-
U mnie na Misiu BL pod PR nie mieszcza sie 2 linijki jednej nie widac. Tak pozatym jak dla mnie swietna robota
-
Opisy z czasem. Impreza byla przednia. Wszystko sie udalo bardzo dobrze ZA rok bedzie jeszcze lepiej no i Michal nie ma juz wyjscia. Bedzie musial przybyc do nas. Dziekuje wszystkim ktorzy przylozyli sie do zrobienia konkursu. - SEOPL specjalne podziekowania dla Zero3 - Uczestnikom konkursu bez ktorych nie byloby takowego - Organizatorom rozdania (Kill Bill i Jimii ze swoim ID) - Sponsorom. W przyslym roku bedzie jeszcze lepiej
-
Przez filtry googla moja strona jest w 600 wynikow na moje slowo i 3 na allinanchor Za to w msn 1-3 zalezy. Niedawno w statystykach zaskakujaca rzecz nastapila mialem najwiecej wejsc wlasnie z msn. I tendencja ta rosnie. Po prostu strona msn jest bardzo popularna w usa i wielu ludzi korszysta tam z wyszukiwarki podobnie jak w onecie mimo iz jest jaka jest. Podoba mi sie ze msn generuje mi spory ruch. To plus ruch z yahoo na razie wystarcza. Czekam na zdjecie filtrow (nie wiem za co) na google. Mysle ze trzeba mi jeszcze kilku miesiecy. Walczac o pozycje ze stronami istniejacymi w internecie od 5-6 lat trzeba uwazac chyba na wszystko.
-
w wersji przema nie trzeba robic mod_rewrite bo on juz tam wrzucil session_id killer to w zupelnosci wystarcza
-
wiarygodna strona to nie tylko sam wyglad i tresc ...
melassa odpowiedział(a) na BD temat w Strony do Oceny
oj az sie boje co to by bylo jakby sie bill za programowanie by wzial tragedia ale OT nie bede przedluzal dyskusji -
wiarygodna strona to nie tylko sam wyglad i tresc ...
melassa odpowiedział(a) na BD temat w Strony do Oceny
troche duzo tutaj obowiazkow moim zdaniem jesli w podpise jest cos co cie uwiarygodni nr tel i imie i nazwisko wtedy warto zawraca sobie glowe tym -
sporo dobrych rad jest na https://internetpr.pl a rady jak sie zwracac do ludzi ogolnie https://www.nlp.pl
-
zwroc uwage na polityke iyti i tvn inwestuja w nowe programy itp jak do zarzadu dojdzie ze spadaja zainwestuja w wyszukiwarke wierz mi ale kupe kase wlozyli i teraz chca sie odkuc
-
www.ranking.pl tam znajdzie info na ten temat podejrzewam ze niedlugo oneta albo wykupis silnik od msn lub yahoo
-
jezeli chodzi o ip to nie zapominaj takze o ludziach np ja ktorzy korzystaja z dostepu z dynamicznym adresem ip ja moge miec 20 ip jednego dni jestem w dialogu wywala mnie co 10 godzin i zmieniam wtedy ip ale na przyklad moge podlaczyc sie do netu i wyjsc z niego kilka razy dziennie otrzymujac nowe ip moim zdaniem metoda ta odpada
-
jako ze nie mam pewnosci co do nazw robotow dokladnie tego co bedzie potrzebne do stworzenia poprawnego kodu podaje za logami serwera https://stats.rsi.pl/www.ucet.pl/agent_200305.html Szukacz== szukacz przedstawia sie calkowicie tak Szukacz/1.5 (robot; www.szukacz.pl/jakdzialarobot.html; info@ NETOSKOP == netoskop przedstawia sie po prostu netoskop GOORU == Gooru-WebSpider przedstawia sie Gooru-WebSpider/1.0 (Linux; PI) NETSPRINT == NetSprint przedstawia sie NetSprint -- 2.0 ONET == Inktomi lub onet przedstawia sie Inktomi.search.onet.9 ->tutaj cyferki sie zmieniaja oczywiscie podaje za https://stats.zgo.serwery.pl/zgo.pl/agent_200403.html poniezej zamieszczam moja interpretacje zmian w kodzie nie wiem czy dobrze zrozumialem jak to dziala ?? global $HTTP_SERVER_VARS; $RobotsList = array ( // polskie roboty "szukacz", "netoskop", //gooru "gooru", "webspider", // onet "onet", "inktomi", // netsprint "netsprint", //koniec polskich robotow "antibot", "appie", "architext", "bjaaland", "digout4u", "echo", "fast-webcrawler", "ferret", "googlebot", "gulliver", "harvest", "htdig", "ia_archiver", "jeeves", "jennybot", "linkwalker", "lycos", "mercator", "moget", "muscatferret", "myweb", "netcraft", "nomad", "petersnews", "scooter", "slurp", "unlost_web_crawler", "voila", "voyager", "webbase", "weblayers", "wget", "wisenutbot", "acme.spider", "ahoythehomepagefinder", "alkaline", "arachnophilia", "aretha", "ariadne", "arks", "aspider", "atn.txt", "atomz", "auresys", "backrub", "bigbrother", "blackwidow", "blindekuh", "bloodhound", "brightnet", "bspider", "cactvschemistryspider", "cassandra", "cgireader", "checkbot", "churl", "cmc", "collective", "combine", "conceptbot", "coolbot", "core", "cosmos", "cruiser", "cusco", "cyberspyder", "deweb", "dienstspider", "digger", "diibot", "directhit", "dnabot", "download_express", "dragonbot", "dwcp", "e-collector", "ebiness", "eit", "elfinbot", "emacs", "emcspider", "esther", "evliyacelebi", "nzexplorer", "fdse", "felix", "fetchrover", "fido", "finnish", "fireball", "fouineur", "francoroute", "freecrawl", "funnelweb", "gama", "gazz", "gcreep", "getbot", "geturl", "golem", "grapnel", "griffon", "gromit", "hambot", "havindex", "hometown", "htmlgobble", "hyperdecontextualizer", "iajabot", "ibm", "iconoclast", "ilse", "imagelock", "incywincy", "informant", "infoseek", "infoseeksidewinder", "infospider", "inspectorwww", "intelliagent", "irobot", "iron33", "israelisearch", "javabee", "jbot", "jcrawler", "jobo", "jobot", "joebot", "jubii", "jumpstation", "katipo", "kdd", "kilroy", "ko_yappo_robot", "labelgrabber.txt", "larbin", "legs", "linkidator", "linkscan", "lockon", "logo_gif", "macworm", "magpie", "marvin", "mattie", "mediafox", "merzscope", "meshexplorer", "mindcrawler", "momspider", "monster", "motor", "msnbot", "yahoo! slurp", "mwdsearch", "netcarta", "netmechanic", "netscoop", "newscan-online", "nhse", "northstar", "occam", "octopus", "openfind", "orb_search", "packrat", "pageboy", "parasite", "patric", "pegasus", "perignator", "perlcrawler", "phantom", "piltdownman", "pimptrain", "pioneer", "pitkow", "pjspider", "pka", "plumtreewebaccessor", "poppi", "portalb", "puu", "python", "raven", "rbse", "resumerobot", "rhcs", "roadrunner", "robbie", "robi", "robofox", "robozilla", "roverbot", "rules", "safetynetrobot", "search_au", "searchprocess", "senrigan", "sgscout", "shaggy", "shaihulud", "sift", "simbot", "site-valet", "sitegrabber", "sitetech", "slcrawler", "smartspider", "snooper", "solbot", "spanner", "speedy", "spider_monkey", "spiderbot", "spiderline", "spiderman", "spiderview", "spry", "ssearcher", "suke", "suntek", "sven", "tach_bw", "tarantula", "tarspider", "techbot", "templeton", "teoma_agent1", "titin", "titan", "tkwww", "tlspider", "ucsd", "udmsearch", "urlck", "valkyrie", "victoria", "visionsearch", "vwbot", "w3index", "w3m2", "wallpaper", "wanderer", "wapspider", "webbandit", "webcatcher", "webcopy", "webfetcher", "webfoot", "weblinker", "webmirror", "webmoose", "webquest", "webreader", "webreaper", "websnarf", "webspider", "webvac", "webwalk", "webwalker", "webwatch", "whatuseek", "whowhere", "wired-digital", "wmir", "wolp", "wombat", "worm", "wwwc", "wz101", "xget", "awbot", "bobby", "boris", "bumblebee", "cscrawler", "daviesbot", "ezresult", "gigabot", "gnodspider", "internetseer", "justview", "linkbot", "linkchecker", "nederland.zoek", "perman", "pompos", "psbot", "redalert", "shoutcast", "slysearch", "ultraseek", "webcompass", "yandex", "robot", "crawl" );
-
jaka funkcje pelni ta tablica z nazwami robotow ?? bo zastanawiam sie czy nie warto dodac tam np polskich robotow ??
-
bardzo chetnie mail bedzie potrzebny ??
-
a jesli mozna spytac wy korzystacie z jakis modyfikacji phpbb pytam dlatego ze do topicow konkretnych generowane sa dokumenty .html z tego co sie orientuje w klasycznym phpbb tego nie ma ?? a dzieki temu wasze forum jest bardzo robot friendly