Skocz do zawartości

Siła linków z zaplecza


Rekomendowane odpowiedzi

:) Teoria jak teoria, ale chyba coraz trudniej stworzyc dobre zaplecze z katalogu. Podejrzewam, ze google gdyby chcialao moglo by wrecz sprawdzac wszystko. Nie robi tego jednak bo to wymagało by za duzej mocy obiczeniowej i strasznie by opoznialo caly proces przeszukiwania i indeksowania. Tak mi sie wydaje.

Katalog jak katalog. Linkiem nikt nie pogardzi :)

Blog - marketing internetowy, reklama w wyszukiwarkach, SEO, SEM, Usability

Darmowe kursy do pobrania: Google AdWords, zaktualizowany kurs Google Analytics

Odnośnik do komentarza
Udostępnij na innych stronach

qlweby lecą z indeksu, lub też spada wartość wychodzących z nich linków

Masz na to jakieś dowody czy opierasz się na swoich domysłach albo obserwacjach jakiegoś swojego qlweba którego nie wiadomo jak podlinkowywałeś ?

Systemy Wymiany Linków - Zdobądź więcej linków przy pomocy systemów automatycznej wymiany linków!

Odnośnik do komentarza
Udostępnij na innych stronach

Podejrzewam, że powoli zaczyna się czas tworzenia zaplecza z konkretną treścią. Zresztą to już zaczęło się lata temu. Ale to tylko moja opinia i niektórzy się mogą ze mną nie zgodzić

Tak, ja się z Tobą nie zgodzę, ale nie dlatego, że siła zaplecza jest za słaba. Uważam po prostu, że budowanie zaplecza to zwykłe zaśmiecanie netu i strata czasu. W/g mnie to przyszłośc jest w nowych, jeszcze nie napisanych systemach wymiany linków i wzajemnej promocji stron. Człowiek ma wtedy czas na zajęcie się serwisem docelowym i jego rozbudowę.

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

... Uważam po prostu, że budowanie zaplecza to zwykłe zaśmiecanie netu i strata czasu. ... Człowiek ma (...) czas na zajęcie się serwisem docelowym i jego rozbudowę.

zgadzam się z Tobą ale mam wrażenie, że to nie przejdzie

już dawno temu porzuciłem swoje ideały

(całe szczęscie nie wszystkie)

:-)

pozdrawiam

"Ale kochany! Nie ma żadne "tylko"! Nic! Żadnej roboty nie wezmę, nie wiem, nie znam się, nie orientuję się, zarobiony jestem!"
1% dla Antka

Ania M.

Odnośnik do komentarza
Udostępnij na innych stronach

To nie żadna wiara tylko wiedza.

Ludzi nie rozumiejące zasady działania mogą uważać to za science fiction, ale sieci neuronowe są tworzone, rozwijane i wydaje sie na ich rozwój ogromne pieniądze. Może nie są tak doskonałe przy prognozowania, ale w znajdowaniu zależności w danych IMHO to najlepsze algorytmy, bądź to rozpoznawanie obrazów, pisma itd.

Odnośnik do komentarza
Udostępnij na innych stronach

Ja też wierzę w sieci neuronowe - w człowieku. :)

Jesli google uznałoby, że kosi katalogi i chciałoby oszczędzić sobie fatygi z tworzeniem oprogramowania za setki czy miliony $ - to 1 człowiek + kilka godzin pracy i fruuu - ręcznie blokuje katalogi.

Po co skomplikowane metody gdy wycięcie połowy polskiego spamu zajęloby inteligentnej osobie kilka dni ?

A najprościej byłoby im zatrudnić osobę z naszego grona. :)

Odnośnik do komentarza
Udostępnij na innych stronach

Ludzi nie rozumiejące zasady działania mogą uważać to za science fiction,
To do mnie? :)
ale sieci neuronowe są tworzone, rozwijane i wydaje sie na ich rozwój ogromne pieniądze.
Niestety ogrom pieniedzy wydanych na rozwoj czegokolwiek niekoniecznie przesadza o przydatnosci tego czegos.

Teraz glowna czesc mojej odpowiedzi :)

W skrocie (dla leniwych): sieci neuronowe na razie sa fajna zabawka, ale duze zadania sa daleko poza ich zasiegiem.

W calosci:

ale w znajdowaniu zależności w danych IMHO to najlepsze algorytmy, bądź to rozpoznawanie obrazów, pisma itd.
W znajdowaniu prostych zaleznosci sa ok. Do rozpoznawania pisma moga byc. Do rozpoznawania obrazow jak na razie sa w ogonie. Natomiast ocena jakosci strony internetowej to IMHO _bardzo_ skomplikowane zadanie. I akurat sieci neuronowe niezbyt sie moim zdaniem do tego nadaja. Pomijam nawet kwestie techniczne typu: rodzaj i architektura sieci, algorytm oceny jakosci czy rodzaj danych, ktore mialaby ta siec przetwarzac. Przede wszystkim zaden obecnie znany algorytm uczenia jakiegokolwiek rodzaju sieci nie bylby sobie w stanie poradzic w sensownym czasie z taka iloscia stron internetowych, a co za tym idzie z taka ogromna liczba wezlow i przede wszystkim polaczen pomiedzy wezlami (dla feed-forward zobacz np. tutaj: https://www.lcc.uma.es/~lfranco/B11-Gomez+Franco++06.pdf - tylko 8 parametrow, a moze wymagac 256 wezlow i 10000 iteracji). A nie sadze, zeby wyniki opoznione o kilka miesiecy byly zadowalajace dla wyszukiwarki i dla wyszukujacych ;)

Poza tym pomysl, ze dla zadania klasyfikacji musisz miec przynajmniej pozytywne (a najlepiej i negatywne) przyklady. To oznacza ocene kazdej strony, ktora sluzyc ma do uczenia sieci przez czlowieka. Nawet polautomatycznie nie ma to sensu.

Odnośnik do komentarza
Udostępnij na innych stronach

To do mnie? ;)

Było ale już nie jest :)

Każdy ma swoje zdanie ok.

Żeby było trochę śmiesznej :

Pierwszą sieć pisałem jeszcze na Amidze 600. Miała ona "przepowiadać:" wyniki totka na podstawie wyników z poprzedniego dnia. Poświęciłem kupe czasu na odpowiednie spreparowanie danych wejściowych i samej sieci. Strasznie się męczyłem nad optymalizacja i wydajnością, ale...

Gdyby nawet wyniki byli zadawalające to i tak były by nie aktualne, bo według obliczeń propagacja sieci trwała by cos około 9 dni :).

Zaprzestałem prognozowania totka ;)

Odnośnik do komentarza
Udostępnij na innych stronach

W czym jest problem usunac z indexow katalogi lub zmniejszyc ich wartosc ? Sa programy i nazedzie ktore automatycznie przeszukuja neta za kaalogami i dodaja wipisy ;) domyslam sie ze w G zasiadaja takie a nie ine glowy ze poradzili by sobie z tym bardzoooo szybko. Kwestia tylko czy kazdy katalog ma wyleciec ? Przecierz sa tworzone katalogi moderowane i zadbane - gdzie nie tylko licza sie boty ale przedewszystkim ludzie kozystajacy z nich. Czy taki katalog jest warty usuniecia ? Mozna zastosowac kilka sztuczek i wylapac wartosciowsze od mniej z pewnym prawdopodobienstwem ale ... Jedno jest pewne teczniczni jest to do wykonania bardzo szybko jedynie co sie stanie jesli wszystko usuna ? W wynikach pojawi sie maxymalny chaos bo w topie znaida sie strony nie konieczne idealne . Kto pamieta dn kiedy google zaczelo banowac za ukryte tresci i co sie podzialo z wynikmi ile czasu minelo na uporzadkowanie wszystkiego ? Teraz dochodza do tegoogromne pieniadze za reklame . Prosta zasada jesli bedzie baizel w wynikach bedzie mniej szukajacych , zatym idzie mniej reklamodawcow i duzoooo mniejsze pieniadze a nato zadan firma nie moze sobie pozwolc . A niema co sie oszukiwac ozycjonowanie wplywa pozytywnie na wyniki wyszukiwarki - jedynie beda musieli popracowac nad wykrywaniem spamu gdzie naj prostrze rozwiazani sa najlepsz filt slow i potem weryfikacja stron

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności