-
Postów
6811 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
1
Treść opublikowana przez michal
-
Mi się wydawało, że większość providerów na Apache udostępnia mod_rewrite. Ja bym zmienił takiego co tego nie oferuje.
-
FOrum jest dynamicznym skryptem więc musi mieć parametry aby działało poprawnie. Mod_Rewrite zamienia wygląd parametrów, ale dalej je zachowuje. Np. https://forum.yourwebloghere.com/forum2.html jest czytane jako https://www.forum.optymalizacja.com/viewforum.php?f=2 Zobacz, że obydwa idą w to samo miejsce. Bez modrewrite musiałbyś tworzyć każdą stronę osobno. A nie możesz ich poprosić o zainstalowanie modułu mod_rewrite?
-
no tak to jest problem, ale nie wydaje mi się żeby można to było zrobić bez mod_rewrite.
-
nie ma sprawy, jak do tego wrócisz to pomyślimy co da się zrobić.
-
żeby to zrobić to musisz użyć mod_rewrite. A gdzie umieściłeś .htaccess? powinien być w htdocs jeżeli jesteś na Apache.
-
sróbuj dodać na początku to RewriteEngine On Options +FollowSymlinks RewriteBase / zamiast samego RewriteEngine On
-
Spróbuj coś takiego: RewriteEngine On RewriteRule ^forums.* /index.php RewriteRule ^forum([0-9]*).* /viewforum.php?f=$1&mark=topic RewriteRule ^viewforum([0-9]*)-([0-9]*)-([0-9]*).* /viewforum.php?f=$1&topicdays=$2&start=$3 RewriteRule ^forum([0-9]*).* /viewforum.php?f=$1 RewriteRule ^ptopic([0-9]*).* /viewtopic.php?t=$1&view=previous RewriteRule ^ntopic([0-9]*).* /viewtopic.php?t=$1&view=next RewriteRule ^ftopic([0-9]*)-([0-9]*)-([a-zA-Z]*)-([0-9]*).* /viewtopic.php?t=$1&postdays=$2&postorder=$3&start=$4 RewriteRule ^ftopic([0-9]*)-([0-9]*).* /viewtopic.php?t=$1&start=$2 RewriteRule ^ftopic([0-9]*).* /viewtopic.php?t=$1 RewriteRule ^ftopic([0-9]*).html /viewtopic.php?t=$1&start=$2&postdays=$3&postorder=$4&highlight=$5 RewriteRule ^sutra([0-9]*).* /viewtopic.php?p=$1 Jeżeli to nie działa to może mógłbyś przenieść do subdomeny tak jak ja to zrobiłem forum.jakasdomena.com.
-
Bardzo fajna lista, dzięki
-
Może innego dnia się coś wymyśli. Dobranoc.
-
Jeżeli linki są pozamieniane to dalej jest to sprawa .htaccess. Nie znam konfiguracji serwera więc nie za bardzo mogę Ci pomóc. Spróbuj może to: RewriteEngine On Options +FollowSymlinks RewriteRule ^phpbb2/forums.* /phpbb2/index.php RewriteRule ^phpbb2/forum([0-9]*).* /phpbb2/viewforum.php?f=$1&mark=topic RewriteRule ^phpbb2/viewforum([0-9]*)-([0-9]*)-([0-9]*).* /phpbb2/viewforum.php?f=$1&topicdays=$2&start=$3 RewriteRule ^phpbb2/forum([0-9]*).* /phpbb2/viewforum.php?f=$1 RewriteRule ^phpbb2/ptopic([0-9]*).* /phpbb2/viewtopic.php?t=$1&view=previous RewriteRule ^phpbb2/ntopic([0-9]*).* /phpbb2/viewtopic.php?t=$1&view=next RewriteRule ^phpbb2/ftopic([0-9]*)-([0-9]*)-([a-zA-Z]*)-([0-9]*).* /phpbb2/viewtopic.php?t=$1&postdays=$2&postorder=$3&start=$4 RewriteRule ^phpbb2/ftopic([0-9]*)-([0-9]*).* /phpbb2/viewtopic.php?t=$1&start=$2 RewriteRule ^phpbb2/ftopic([0-9]*).* /phpbb2/viewtopic.php?t=$1 RewriteRule ^phpbb2/ftopic([0-9]*).html /phpbb2/viewtopic.php?t=$1&start=$2&postdays=$3&postorder=$4&highlight=$5 RewriteRule ^phpbb2/sutra([0-9]*).* /phpbb2/viewtopic.php?p=$1 każda linijka powinna się zaczynać od RewriteRule. Niekiedy jak wklejasz kod z forum to pojawiają się nie potrzebne spacje.
-
wygląda na to, że jest w porządku, chociaż może masz jakieś zbędne spacje na końcu linijek. Jak chcesz to podaj mi swój email i wyślę Ci ten plik ode mnie.
-
wklej cały plik page_tail.php, i porównam go ze swoim.
-
Masz rację zapomniałem o jednej rzeczy, już jest poprawiona w pierwszym poscie. Następny dodatek do page_tail.php :oops: Tak .htaccess bez żadnego rozszerzenia. Jeżeli twój edytor nie pozwala ci nagrać pliku zaczynającego się od . to nagraj go jako htaccess.txt i przez ftp na serwerze zmień nazwę na .htaccess.
-
Jak najbardziej warto i nawet trzeba. Funkcje pełni taką, że jeżeli user-agent jest zawart w liście to session id nie będzie dodany. Jak zrobisz listę polskich robotów, to fajnie by było gdybyś mógł ją tutaj podać.
-
static urls W pliku includes/page_header.php znajdź: ob_start(); i zamień na: ob_start(); function replace_for_mod_rewrite(&$s) { $urlin = array( "'(?<!/)viewforum.php?f=([0-9]*)&(?:amp;)topicdays=([0-9]*)&(?:amp;)start=([0-9]*)'", "'(?<!/)viewforum.php?f=([0-9]*)&(?:amp;)mark=topics'", "'(?<!/)viewforum.php?f=([0-9]*)'", "'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)view=previous'", "'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)view=next'", "'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)postdays=([0-9]*)&(?:amp;)postorder=([a-zA-Z]*)&(?:amp;)start=([0-9]*)'", "'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)start=([0-9]*)&(?:amp;)postdays=([0-9]*)&(?:amp;)postorder=([a-zA-Z]*)&(?:amp;)highlight=([a-zA-Z0-9]*)'", "'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)start=([0-9]*)'", "'(?<!/)viewtopic.php?t=([0-9]*)'", "'(?<!/)viewtopic.php&(?:amp;)p=([0-9]*)'", "'(?<!/)viewtopic.php?p=([0-9]*)'", ); $urlout = array( "viewforum1-2-3.html", "forum1.html", "forum1.html", "ptopic1.html", "ntopic1.html", "ftopic1-2-3-4.html", "ftopic1.html", "ftopic1-2.html", "ftopic1.html", "sutra1.html", "sutra1.html", ); $s = preg_replace($urlin, $urlout, $s); return $s; } W pliku includes/page_tail.php znajdź $db->sql_close(); i dodaj pod tym: $contents = ob_get_contents(); ob_end_clean(); echo replace_for_mod_rewrite($contents); global $dbg_starttime; w tym samym pliku znajdź: $gzip_contents = ob_get_contents(); ob_end_clean(); i zamień na $gzip_contents = ob_get_contents(); ob_end_clean(); echo replace_for_mod_rewrite($contents); global $dbg_starttime; W pliku .htaccess (jeżeli nie istnieje ten plik to go stwórz i umieść w root: RewriteEngine On Options +FollowSymlinks RewriteRule ^phpbb2/forums.* /phpbb2/index.php RewriteRule ^phpbb2/forum([0-9]*).* /phpbb2/viewforum.php?f=$1&mark=topic RewriteRule ^phpbb2/viewforum([0-9]*)-([0-9]*)-([0-9]*).* phpbb2/viewforum.php?f=$1&topicdays=$2&start=$3 RewriteRule ^phpbb2/forum([0-9]*).* phpbb2/viewforum.php?f=$1 RewriteRule ^phpbb2/ptopic([0-9]*).* phpbb2/viewtopic.php?t=$1&view=previous RewriteRule ^phpbb2/ntopic([0-9]*).* phpbb2/viewtopic.php?t=$1&view=next RewriteRule ^phpbb2/ftopic([0-9]*)-([0-9]*)-([a-zA-Z]*)-([0-9]*).* phpbb2/viewtopic.php?t=$1&postdays=$2&postorder=$3&start=$4 RewriteRule ^phpbb2/ftopic([0-9]*)-([0-9]*).* phpbb2/viewtopic.php?t=$1&start=$2 RewriteRule ^phpbb2/ftopic([0-9]*).* phpbb2/viewtopic.php?t=$1 RewriteRule ^phpbb2/ftopic([0-9]*).html phpbb2/viewtopic.php?t=$1&start=$2&postdays=$3&postorder=$4&highlight=$5 RewriteRule ^phpbb2/sutra([0-9]*).* phpbb2/viewtopic.php?p=$1 .htaccess może potrzebować zmianm w zależności gdzie masz zainstalowane forum i od ustawień twojego serwera. session killer to nie dodaje session id jeżeli na forum wchodzi robot z list. Do listy można dodawać więcej robotów. W pliku includes/sessions.php znajdź: function append_sid($url, $non_html_amp = false) i zamień wszystko od tego miejsca na: function append_sid($url, $non_html_amp = false) { global $SID; if ( !empty($SID) && !eregi('sid=', $url) && !areyouabot() ) { if ( !empty($SID) && !eregi('sid=', $url) ) { $url .= ( ( strpos($url, '?') != false ) ? ( ( $non_html_amp ) ? '&' : '&' ) : '?' ) . $SID; } } return($url); } function areyouabot() { global $HTTP_SERVER_VARS; $RobotsList = array ( "antibot", "appie", "architext", "bjaaland", "digout4u", "echo", "fast-webcrawler", "ferret", "googlebot", "gulliver", "harvest", "htdig", "ia_archiver", "jeeves", "jennybot", "linkwalker", "lycos", "mercator", "moget", "muscatferret", "myweb", "netcraft", "nomad", "petersnews", "scooter", "slurp", "unlost_web_crawler", "voila", "voyager", "webbase", "weblayers", "wget", "wisenutbot", "acme.spider", "ahoythehomepagefinder", "alkaline", "arachnophilia", "aretha", "ariadne", "arks", "aspider", "atn.txt", "atomz", "auresys", "backrub", "bigbrother", "blackwidow", "blindekuh", "bloodhound", "brightnet", "bspider", "cactvschemistryspider", "cassandra", "cgireader", "checkbot", "churl", "cmc", "collective", "combine", "conceptbot", "coolbot", "core", "cosmos", "cruiser", "cusco", "cyberspyder", "deweb", "dienstspider", "digger", "diibot", "directhit", "dnabot", "download_express", "dragonbot", "dwcp", "e-collector", "ebiness", "eit", "elfinbot", "emacs", "emcspider", "esther", "evliyacelebi", "nzexplorer", "fdse", "felix", "fetchrover", "fido", "finnish", "fireball", "fouineur", "francoroute", "freecrawl", "funnelweb", "gama", "gazz", "gcreep", "getbot", "geturl", "golem", "grapnel", "griffon", "gromit", "hambot", "havindex", "hometown", "htmlgobble", "hyperdecontextualizer", "iajabot", "ibm", "iconoclast", "ilse", "imagelock", "incywincy", "informant", "infoseek", "infoseeksidewinder", "infospider", "inspectorwww", "intelliagent", "irobot", "iron33", "israelisearch", "javabee", "jbot", "jcrawler", "jobo", "jobot", "joebot", "jubii", "jumpstation", "katipo", "kdd", "kilroy", "ko_yappo_robot", "labelgrabber.txt", "larbin", "legs", "linkidator", "linkscan", "lockon", "logo_gif", "macworm", "magpie", "marvin", "mattie", "mediafox", "merzscope", "meshexplorer", "mindcrawler", "momspider", "monster", "motor", "msnbot", "yahoo! slurp", "mwdsearch", "netcarta", "netmechanic", "netscoop", "newscan-online", "nhse", "northstar", "occam", "octopus", "openfind", "orb_search", "packrat", "pageboy", "parasite", "patric", "pegasus", "perignator", "perlcrawler", "phantom", "piltdownman", "pimptrain", "pioneer", "pitkow", "pjspider", "pka", "plumtreewebaccessor", "poppi", "portalb", "puu", "python", "raven", "rbse", "resumerobot", "rhcs", "roadrunner", "robbie", "robi", "robofox", "robozilla", "roverbot", "rules", "safetynetrobot", "search_au", "searchprocess", "senrigan", "sgscout", "shaggy", "shaihulud", "sift", "simbot", "site-valet", "sitegrabber", "sitetech", "slcrawler", "smartspider", "snooper", "solbot", "spanner", "speedy", "spider_monkey", "spiderbot", "spiderline", "spiderman", "spiderview", "spry", "ssearcher", "suke", "suntek", "sven", "tach_bw", "tarantula", "tarspider", "techbot", "templeton", "teoma_agent1", "titin", "titan", "tkwww", "tlspider", "ucsd", "udmsearch", "urlck", "valkyrie", "victoria", "visionsearch", "vwbot", "w3index", "w3m2", "wallpaper", "wanderer", "wapspider", "webbandit", "webcatcher", "webcopy", "webfetcher", "webfoot", "weblinker", "webmirror", "webmoose", "webquest", "webreader", "webreaper", "websnarf", "webspider", "webvac", "webwalk", "webwalker", "webwatch", "whatuseek", "whowhere", "wired-digital", "wmir", "wolp", "wombat", "worm", "wwwc", "wz101", "xget", "awbot", "bobby", "boris", "bumblebee", "cscrawler", "daviesbot", "ezresult", "gigabot", "gnodspider", "internetseer", "justview", "linkbot", "linkchecker", "nederland.zoek", "perman", "pompos", "psbot", "redalert", "shoutcast", "slysearch", "ultraseek", "webcompass", "yandex", "robot", "crawl" ); $botID = strtolower($HTTP_SERVER_VARS['HTTP_USER_AGENT']); for ($i = 0; $i < count($RobotsList); $i++) { if ( strstr($botID, $RobotsList[$i]) ) { return TRUE; } } return FALSE; }
-
Jak najbardziej, jeśli chcesz to Ci dam kod do zmian. Mamy static urls i session killer.
-
dokładnie
-
Możesz to wykorzystać poprzez linki.
-
Podstawy pozycjonowania i optymalizacji Większość ludzi uważa, że pozycjonowanie stron internetowych wymaga bardzo dużej wiedzy. Jest to jednak pojęcie błędne, gdyż pozycjonowanie większości stron internetowych nie jest takie trudne, o ile nie mamy doczynienia z bardzo kompetytywnym hasłem. Poniżej podam podstawy pozycjonowania, które powinny wystarczyć większości. <title></title> Dobrze sformułowany tytuł strony jest bardzo ważny. Służy nie tylko rankingowi, ale również jest tym co większośc ludzi czyta przed wejściem na stronę z wyników wyszukiwania. Tytuł powinien zawierać nasze słowa kluczowe, najlepiej na samym początku. Powinien jednak mieć sens. Warto poświęcić trochę czasu na zastanowienie się nad nim. "Witajcie na mojej super fajnej stronie - www.mojastrona.com" nie jest wartościowym tytułem. Słowa zawarte w nim mają małe szanse bycia wyszukiwanymi tak jak adres (url) domeny. <meta name="description" content="blablabla"> Jest to jeden z niwielu meta tagów, który jeszcze ma znaczenie. Powinien zawierać dobrze sformułowany opis strony przy użyciu słów kluczowych. W niektórych wyszukiwarkach to jest opis, który pokazuje się w wynikach, więc powinien również zachęcić do wejścia na stronę. <meta name="keywords" content="blablalba"> Nie wykorzystywany przez większośc wyszukiwarek ale nie można o nim zapomnieć, gdyż jest to najczęściej traktowane jak tekst na stronie. Trochę pracy też trzeba w to włożyć. Nie należy natomiast powtarzać swoich słów kluczowych wielokrotnie (2 razy wystarczy) i nie powinien być za długi. <h1><h2><h3><h4><h5><h6> Są to "heading tags", czyli nagłówki. Numery od 1 do 6 określają wielkość tekstu, przy czym 1 jest największy. Przy używaniu tych tagów trzeba sobie wyobrazić stronę z gazety. Główny tytuł jest największy więc użyjemy <h1>Nasz tekst</h1> i powinien występować tylko raz na stronie. Podtytuły mają już mniejszy tekst i mogą być użyte więcej razy. Tekst zawarty w tych tagach powinien nie być za długi, mieć sens i zawierać słowa kluczowe. <b><u><i> <b> - tłusty druk <u> - podkreślony <i> - kursywa Te tagi służą do dadania wartości danym słowom. Powinny być używane na naszych słowach kluczowych. <img src="obraz.jpg" alt="blablabla"> Obrazki na stronie internetowej poinny zawierać alt(tekst alternatywny). Powinno się używać w nim słów kluczowych. Trzeba również pamiętać, że jest to wykorzystywane przez czytniki stron dla niewidomych, więc poprawia używalność naszej strony i powinno mieć sens oprócz słów kluczowych. Tekst na stronie Należy używać często słów kluczowych, ale w taki sposób, żeby nie wystraszyć odwiedzających. Na początku tekstu jest też dobrze zawrzeć słowa kluczowe, pamiętając o używanie <b><u><i>. <a href="https://mojastrona.com">Słowa kluczowe</a> Tekst pod linkami jest jednym z najważniejszych czynników pozycjonowania. Tekst zawarty w linku powinien zawierać słowa kluczowe. Struktura linków Każda strona powinna być dostępna conajwyżej w dwóch kliknięciach od strony głównej. Roboty skaczą z linka na link, więc muszą każdą stronę z łatwością znaleźć. Mapa witryny Mapa witryny jest stroną na której zawarte są linki do wszystkich ważnych stron naszej witryny. Trzeba pamiętać o używaniu odpowiedniego tekstu pod tymi linkami. Roboty uwielbiają mapy, więc należy włożyć w to trochę pracy. Przy dużych witrynach jest to również pomocne dla odwiedzających.
-
Tutaj będą informacje i dyskusje na temat robotów, które odwiedzają Wasze strony.
-
Metody tworzenia stron przyjaznych wyszukiwarkom. Na przykład użycie mod_rewrite. Strony dynamiczne takie jak to forum mają często *brzydkie* adresy, ale można je zamienić na ładne. Jeżeli zwrócicie uwagę na nasze forum to zobaczycie, że większość linków kończy się "html" i nie ma brzydkiej "query string". Ta metoda bardzo polepsza indeksowanie.
-
Jeżeli znasz jakieś narzędzia przydatne w pozycjonowaniu to podziel się nimi.
-
Wszystko na temat wyszukiwarki MSN.