Skocz do zawartości

melassa

SeoPl
  • Postów

    1691
  • Dołączył

  • Ostatnia wizyta

Contact Methods

  • Website URL
    https://blazalek.com
  • Twitter
    blazalek

Profile Information

  • Gender
    Male

Ostatnie wizyty

4625 wyświetleń profilu

Osiągnięcia melassa

Newbie

Newbie (1/14)

6

Reputacja

  1. U mnie na Misiu BL pod PR nie mieszcza sie 2 linijki jednej nie widac. Tak pozatym jak dla mnie swietna robota
  2. Opisy z czasem. Impreza byla przednia. Wszystko sie udalo bardzo dobrze ZA rok bedzie jeszcze lepiej no i Michal nie ma juz wyjscia. Bedzie musial przybyc do nas. Dziekuje wszystkim ktorzy przylozyli sie do zrobienia konkursu. - SEOPL specjalne podziekowania dla Zero3 - Uczestnikom konkursu bez ktorych nie byloby takowego - Organizatorom rozdania (Kill Bill i Jimii ze swoim ID) - Sponsorom. W przyslym roku bedzie jeszcze lepiej
  3. Przez filtry googla moja strona jest w 600 wynikow na moje slowo i 3 na allinanchor Za to w msn 1-3 zalezy. Niedawno w statystykach zaskakujaca rzecz nastapila mialem najwiecej wejsc wlasnie z msn. I tendencja ta rosnie. Po prostu strona msn jest bardzo popularna w usa i wielu ludzi korszysta tam z wyszukiwarki podobnie jak w onecie mimo iz jest jaka jest. Podoba mi sie ze msn generuje mi spory ruch. To plus ruch z yahoo na razie wystarcza. Czekam na zdjecie filtrow (nie wiem za co) na google. Mysle ze trzeba mi jeszcze kilku miesiecy. Walczac o pozycje ze stronami istniejacymi w internecie od 5-6 lat trzeba uwazac chyba na wszystko.
  4. w wersji przema nie trzeba robic mod_rewrite bo on juz tam wrzucil session_id killer to w zupelnosci wystarcza
  5. oj az sie boje co to by bylo jakby sie bill za programowanie by wzial tragedia ale OT nie bede przedluzal dyskusji
  6. troche duzo tutaj obowiazkow moim zdaniem jesli w podpise jest cos co cie uwiarygodni nr tel i imie i nazwisko wtedy warto zawraca sobie glowe tym
  7. sporo dobrych rad jest na https://internetpr.pl a rady jak sie zwracac do ludzi ogolnie https://www.nlp.pl
  8. zwroc uwage na polityke iyti i tvn inwestuja w nowe programy itp jak do zarzadu dojdzie ze spadaja zainwestuja w wyszukiwarke wierz mi ale kupe kase wlozyli i teraz chca sie odkuc
  9. www.ranking.pl tam znajdzie info na ten temat podejrzewam ze niedlugo oneta albo wykupis silnik od msn lub yahoo
  10. jezeli chodzi o ip to nie zapominaj takze o ludziach np ja ktorzy korzystaja z dostepu z dynamicznym adresem ip ja moge miec 20 ip jednego dni jestem w dialogu wywala mnie co 10 godzin i zmieniam wtedy ip ale na przyklad moge podlaczyc sie do netu i wyjsc z niego kilka razy dziennie otrzymujac nowe ip moim zdaniem metoda ta odpada
  11. jako ze nie mam pewnosci co do nazw robotow dokladnie tego co bedzie potrzebne do stworzenia poprawnego kodu podaje za logami serwera https://stats.rsi.pl/www.ucet.pl/agent_200305.html Szukacz== szukacz przedstawia sie calkowicie tak Szukacz/1.5 (robot; www.szukacz.pl/jakdzialarobot.html; info@ NETOSKOP == netoskop przedstawia sie po prostu netoskop GOORU == Gooru-WebSpider przedstawia sie Gooru-WebSpider/1.0 (Linux; PI) NETSPRINT == NetSprint przedstawia sie NetSprint -- 2.0 ONET == Inktomi lub onet przedstawia sie Inktomi.search.onet.9 ->tutaj cyferki sie zmieniaja oczywiscie podaje za https://stats.zgo.serwery.pl/zgo.pl/agent_200403.html poniezej zamieszczam moja interpretacje zmian w kodzie nie wiem czy dobrze zrozumialem jak to dziala ?? global $HTTP_SERVER_VARS; $RobotsList = array ( // polskie roboty "szukacz", "netoskop", //gooru "gooru", "webspider", // onet "onet", "inktomi", // netsprint "netsprint", //koniec polskich robotow "antibot", "appie", "architext", "bjaaland", "digout4u", "echo", "fast-webcrawler", "ferret", "googlebot", "gulliver", "harvest", "htdig", "ia_archiver", "jeeves", "jennybot", "linkwalker", "lycos", "mercator", "moget", "muscatferret", "myweb", "netcraft", "nomad", "petersnews", "scooter", "slurp", "unlost_web_crawler", "voila", "voyager", "webbase", "weblayers", "wget", "wisenutbot", "acme.spider", "ahoythehomepagefinder", "alkaline", "arachnophilia", "aretha", "ariadne", "arks", "aspider", "atn.txt", "atomz", "auresys", "backrub", "bigbrother", "blackwidow", "blindekuh", "bloodhound", "brightnet", "bspider", "cactvschemistryspider", "cassandra", "cgireader", "checkbot", "churl", "cmc", "collective", "combine", "conceptbot", "coolbot", "core", "cosmos", "cruiser", "cusco", "cyberspyder", "deweb", "dienstspider", "digger", "diibot", "directhit", "dnabot", "download_express", "dragonbot", "dwcp", "e-collector", "ebiness", "eit", "elfinbot", "emacs", "emcspider", "esther", "evliyacelebi", "nzexplorer", "fdse", "felix", "fetchrover", "fido", "finnish", "fireball", "fouineur", "francoroute", "freecrawl", "funnelweb", "gama", "gazz", "gcreep", "getbot", "geturl", "golem", "grapnel", "griffon", "gromit", "hambot", "havindex", "hometown", "htmlgobble", "hyperdecontextualizer", "iajabot", "ibm", "iconoclast", "ilse", "imagelock", "incywincy", "informant", "infoseek", "infoseeksidewinder", "infospider", "inspectorwww", "intelliagent", "irobot", "iron33", "israelisearch", "javabee", "jbot", "jcrawler", "jobo", "jobot", "joebot", "jubii", "jumpstation", "katipo", "kdd", "kilroy", "ko_yappo_robot", "labelgrabber.txt", "larbin", "legs", "linkidator", "linkscan", "lockon", "logo_gif", "macworm", "magpie", "marvin", "mattie", "mediafox", "merzscope", "meshexplorer", "mindcrawler", "momspider", "monster", "motor", "msnbot", "yahoo! slurp", "mwdsearch", "netcarta", "netmechanic", "netscoop", "newscan-online", "nhse", "northstar", "occam", "octopus", "openfind", "orb_search", "packrat", "pageboy", "parasite", "patric", "pegasus", "perignator", "perlcrawler", "phantom", "piltdownman", "pimptrain", "pioneer", "pitkow", "pjspider", "pka", "plumtreewebaccessor", "poppi", "portalb", "puu", "python", "raven", "rbse", "resumerobot", "rhcs", "roadrunner", "robbie", "robi", "robofox", "robozilla", "roverbot", "rules", "safetynetrobot", "search_au", "searchprocess", "senrigan", "sgscout", "shaggy", "shaihulud", "sift", "simbot", "site-valet", "sitegrabber", "sitetech", "slcrawler", "smartspider", "snooper", "solbot", "spanner", "speedy", "spider_monkey", "spiderbot", "spiderline", "spiderman", "spiderview", "spry", "ssearcher", "suke", "suntek", "sven", "tach_bw", "tarantula", "tarspider", "techbot", "templeton", "teoma_agent1", "titin", "titan", "tkwww", "tlspider", "ucsd", "udmsearch", "urlck", "valkyrie", "victoria", "visionsearch", "vwbot", "w3index", "w3m2", "wallpaper", "wanderer", "wapspider", "webbandit", "webcatcher", "webcopy", "webfetcher", "webfoot", "weblinker", "webmirror", "webmoose", "webquest", "webreader", "webreaper", "websnarf", "webspider", "webvac", "webwalk", "webwalker", "webwatch", "whatuseek", "whowhere", "wired-digital", "wmir", "wolp", "wombat", "worm", "wwwc", "wz101", "xget", "awbot", "bobby", "boris", "bumblebee", "cscrawler", "daviesbot", "ezresult", "gigabot", "gnodspider", "internetseer", "justview", "linkbot", "linkchecker", "nederland.zoek", "perman", "pompos", "psbot", "redalert", "shoutcast", "slysearch", "ultraseek", "webcompass", "yandex", "robot", "crawl" );
  12. jaka funkcje pelni ta tablica z nazwami robotow ?? bo zastanawiam sie czy nie warto dodac tam np polskich robotow ??
  13. bardzo chetnie mail bedzie potrzebny ??
  14. a jesli mozna spytac wy korzystacie z jakis modyfikacji phpbb pytam dlatego ze do topicow konkretnych generowane sa dokumenty .html z tego co sie orientuje w klasycznym phpbb tego nie ma ?? a dzieki temu wasze forum jest bardzo robot friendly
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności