Skocz do zawartości

AutoAudytSEO - analiza strony i konkurencji


www.skrypty.pro

Rekomendowane odpowiedzi

Programista, ktory to rozwija konczy jeden projekt dla klientow, stad opoznienie. Jednak wszystko jest w planach, na pewno wyjdzie nowa wersja.

Wielka Promocja - Pakiet Zaplecze 2014
czyli oprogramowanie za 1746 zł w cenie 777zł brutto

Mówimy o Microsite Manager Standard, SpamKat i BaseSystem - wszystko to, co potrzebujesz do zaplecza!

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 33
  • Dodano
  • Ostatniej odpowiedzi

Żeby nie było, poniżej szczegółowa dokumentacja dla programisty co ma być zrobione.

Ogólny spis rzeczy do zrobienia:

1. zmiana sposobu pobierania info dla stron do porównania i dodanie obsługi proxy

2. ciągłe zbieranie informacji dla danych stron

3. monitorowanie odpowiedzi serwera danych stron

4. szczegółowe raporty analizujące linki przychodzące

5. autoaktualizacje

Szczegółowy opis:

1. zmiana sposobu pobierania info dla stron do porównania i dodanie obsługi proxy

- uzytkownik najpierw podaje adres (adresy) stron do pobrania podstawowych danych (moze rowniez zaznaczyc szczegolowy raport) i dopiero pozniej z crona (np. cron-basic-raport.php) w kazdym wywolaniu pobierane sa informacje dla jednej strony

- nastepnie uzytkownik wchodzi w archiwum, wyszukuje (ma mozliwosc wyszukiwania po frazie i czy istnieje szczegolowy raport) odpowiednie do porównania strony, zaznacza je checkboxami i klika porównaj

- zmienia się troche strona porównania, z 4 tabelek zrobimy dwie, podział na informacje związane z frazą i ogólne. Uda sie to poprzez zastosowanie skrótów informacji + info po najechaniu (html <acronym>):

Dla frazy %fraza%:

MTd: długość meta title

MTf: występowanie frazy w meta title

MDd: długość meta description

MDf: występowanie frazy w meta description

MKd: długość meta keywords

MKf: występowanie frazy w meta keywords

URLd: długość adresu URL

URLf: występowanie frazy w adresie URL

H1f: występowanie frazy w H1

H2f: występowanie frazy w H2

H3f: występowanie frazy w H3

Bf: występowanie frazy pogrubionych (b,strong)

If: występowanie frazy w kursywie (i,em)

IMGf: występowanie frazy w atrybucie alt dla zdjęć

%f: poziom nasycenia frazą

f500: występowanie frazy w pierwszych 500 znakach

500f: występowanie frazy w ostatnich 500 znakach strony

Ogólne:

%txt: stosunek tekstu do html

PS: szybkość strony

WH: walidator html

WC: walidator css

U: ilość kopii w internecie (unikalność)

AA: czy we wszystkich zdjęciach jest atrybut alt

AT: czy we wszystkich linkach jest atrybut title

AR: ranking Alexa

BL: ilość linków przychodzących

Age: wiek domeny

Trzeba wprowadzic uzycie proxy przy pobieraniu danych ze stron.

2. ciągłe zbieranie informacji dla danych stron

Takie programy juz istnieją, my skupimy się na podstawowych funkcjach:

https://www.forum.optymalizacja.com/index.p...howtopic=136516

https://www.forum.optymalizacja.com/index.p...howtopic=124124

Nasza wersja będzie codziennie dla podanych stron pobierała te info (3 podstawowe informacje dla każdego pozycjonera):

- pagerank (sa gotowe funkcje do pobrania PR)

- site (w google zapytanie site:domena.pl)

- backlinks (z alexa.com)

Musi być możliwość dodawania masowo domen (np. 100), czyli po prostu textarea. Napisz jakas funkcje, zeby format podawanych domen byl dowolny, czyli:

https://domena.pl

domena.pl

czyli zarowno z http jak i bez, dodaj to tez do innych miejsc, gdzie podaje sie linki

Przy dodawaniu stron niech bedzie do wybrania co ile dni ma pobierac informacje dla tej strony, do wyboru 1, 3, 7, 14, 30

Po dodaniu takich stron, informacje powinny być pobierane dla kazdej strony oddzielnie przy uzyciu crona (np. cron-site-monitor.php).

Przy pobranych danych powinna byc zapisana w bazie data pobrania informacji i na podstawie tego beda tworzone wykresy zmian tych parametrow w czasie.

Ilosci stron monitorowanych moga byc bardzo duze i z wielu tematyk, dlatego trzeba wprowadzic etykiety (przy dodawaniu uzytkownik wybiera etykiete) i pozniej sortowanie listy po tych etykietach.

3. monitorowanie odpowiedzi serwera danych stron

Narzędzie do monitorowania odpowiedzi serwera, juz takie cos istnieje (wedlug mnie narzedzie idealne, mozna smialo kopiowac wszystkie ich pomysly):

https://www.forum.optymalizacja.com/index.p...howtopic=130072

U nas narazie skupilibyśmy się na monitorowaniu zaplecza, czyli troche mniej funkcji i rzadsze sprawdzanie. Narzędzie tylko ma pomóc wykryć niedziałające zaplecze (nagłówek inny niż 200), a także czas odpowiedzi serwera (troche sie zastanawialem nad tym, tutaj fajna klasa: https://www.webdigity.com/?action=tutorial;code=59, tylko trzeba ja uzyc w czasie pobierania (filegetcontents) strony).

Pobierasz strone i w bazie zapisujesz:

- aktualny status (np. http200)

- aktualny czas odpowiedzi (np. 0,54s)

- sredni czas odpowiedzi

- ilość pobrań (ilość pobrań jest nam potrzebna do poprawnego wyliczenia sredniego czasu odpowiedzi (a-aktualna srednia, b-nowy czas, n-poprzednia ilosc pobran: (a*n+B)/n+1))

- data ostatniego niepoprawnego statusu (inny niż http 200)

Dla uzytkownika wyswietlac sie powinny (w tym wyszukiwarka) tabela z domenami i informacja o:

- nazwa domeny

- aktualny status

- aktualny czas odpowiedzi

- sredni czas odpowiedzi

- data ostatniego statusu inny niz http200

Tutaj nie potrzebne sa wykresy (nie zbieramy danych archiwalnych), klient ma miec mozliwosc dodania wielu domen na raz (textarea), tez przydalyby sie etykiety. Rowniez mozliwosc wyboru monitorowania pozycji co 1,3,7,14,30 dni. Informacje pobierane w osobnym cronie (np. cron-site-status.php)

4. szczegółowe raporty analizujące linki przychodzące

Szczegółowe raporty to informacje z jakich źródeł i dla jakich fraz pozycjonuje się dana strona, jeśli użytkownik zaznaczy, aby stworzyć szczegółowy raport, to dana strona poza pobraniem podstawowych informacji (cron-basic-raport.php) zostanie również dodana do listy do pobrania szczegółowych informacji, te informacje dla każdej strony z osobna będą wywoływane z osobnego crona (cron-advance-raport1.php).

Pod tym adresem screen zaawansowanego raportu z narzędzia MarketSamurai:

https://langriley.com/images/market-samurai...nk-analysis.png

Ja widać, dla każdego linka pobierane są:

- pagerank

- anchor tekst

ale my na razie bedziemy pobierac tylko anchor tekst

Linki do danej storny pobierzemy z darmowego zrodla jakim jest alexa:

https://www.alexa.com/site/linksin;0/skrypty.pro

Będziemy pobierac do 5000 linków, czyli strony z id 0-249 (linksin;249), ale musi byc to funkcja dowhile, aby przerywalo, jesli wczesniej skoncza sie linki na podstronach. Po pobraniu listy, linki (bez anchor tekstu) zapisujesz do osobnej tabeli, nastepnie w cron-advance-raport2.php, po 100 (zeby nie bylo timeoutow) pobierasz te dla ktorych nie ma jeszcze pobranych anchor tekstow, i pobierasz anchory. Jesli sie okazuje, ze na danej stronie nie ma jednak linka, to usuwaj go z bazy.

Klientowi wyswietlamy:

- textarea ze wszystkimi linkami jeden pod drugim, a takze po sredniku anchor tekst:

url;anchor

url2;anchor

- tabelke ze wszystkimi unikalnymi anchorami (mysql: distinct) i iloscia linkow z ta frazą

5. autoaktualizacje

autoaktualizacje to olbrzymia pomoc w pozniejszym stalym rozwijaniu skryptu, na tym sie nie znam, takze nie narzucam. Musi byc autoaktualizacja plikow i bazy przy pomocy crona

Inne

W menu skryptu powinny byc pola (i najlepiej z rozwijana lista):

1. Audyt

- nowy

- spis

- ustawienia

2. Monitoring (monitorowanie parametrow)

- nowe

- spis

3. Statusy (czyli te http200 itd)

- nowe

- spis

4. Ustawienia ( w ustawieniach na razie tylko proxy i hasla, w przyszlosci jeszcze dodamy ilosci pobieranych w cronie na jeden raz, ale na razie bez tego)

5. Pomoc

- formularz zgłoszeń

- poradnik (textarea z google docs)

- forum (textarea z forum)

Jak widać funkcjonalność się bardzo, bardzo zmieni i poszerzy tworząc praktycznie całkiem inny produkt. Ideą narzędzia jest monitorowanie stron zaplecza i audyt stron klienta.

Wielka Promocja - Pakiet Zaplecze 2014
czyli oprogramowanie za 1746 zł w cenie 777zł brutto

Mówimy o Microsite Manager Standard, SpamKat i BaseSystem - wszystko to, co potrzebujesz do zaplecza!

Odnośnik do komentarza
Udostępnij na innych stronach

  • 3 miesiące temu...

Za 2-3 tygodnie wypuscimy wersje 1.1 to tak na 95%. Funkcjonalnosc tak jak rozpisana powyzej.

Wielka Promocja - Pakiet Zaplecze 2014
czyli oprogramowanie za 1746 zł w cenie 777zł brutto

Mówimy o Microsite Manager Standard, SpamKat i BaseSystem - wszystko to, co potrzebujesz do zaplecza!

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności