Skocz do zawartości

Eksportowanie tekstu całej strony do Worda


d4site

Rekomendowane odpowiedzi

Więc przeglądarka > Zaznacz wszystko lub wybrane fragmenty > Kopiuj.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Echhh Panie Jakubie wget, to dopiero początek i najłatwiejsza sprawa ... Natomiast sam parser kodu strony, to już nie takie proste zadanie. Chyba, że strony mają poprawna budowę jak chodzi o DOM i jest się jednoznacznie do czego odwołać.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Raczej autor nie zainwestuje w ZP do tego zadania, ale fakt faktem, że dał by radę  :)

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach


Dariuszu, z armaty do muchy
Tylko jest jedno aleeeee "lynx --dump"  w ten sposób zrzuci powiedzmy cały tekst strony < o ile nie będzie skopany HTML> łącznie z tekstami  menu, anchorami linków itddd czyli dużo zbędnych w tym wypadku śmieci ... zresztą sprawdź empirycznie  ;)  Zatem  tak przygotowany tekst będzie wymagał znacznego nakładu pracy na jego oczyszczenie.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach


Więc pytanie co autor tematu chce osiągnąć.
Mogę tylko się domyślić, że autor chciał zapewne by wskazać listę stron w postaci URL i na wyjściu otrzymać gotowe pliki Worda z idealnym tekstem "głównym" bez dodatków ... Obawiam się, że autor "olał" temat za co powinny być też babanany.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

a z darmowych rozwiązań

http wiki imacros net/Data_Extraction

w excelu / csv strony które maja być parsowane,

a strony również można pozyskać z imacros

i zapisać do csv

później w loopie

każdą stronkę zapiszesz extract= txt - masz wiki potestuj

 

używałem jeszcze snoopiego, htmlsql i robiłem z tego baze wiedzy z wiki ale to już w php/mysql

 

PIAFF: usunąłem linka

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

jestem, jestem :)

 

nie przerażają mnie płatne rozwiązania a precyzując co autor miłą na myśli już wyjaśniam.

 

Potrzebuję ze strony Klienta skopiować wszystkie treści. Nie mam dostępu do strony, a nie chcę tego robić ręcznie tzn kopiować strona po stronie.

 

Tutaj jeśli macie takie narzędzie chętnie zainwestuje, bo to nie moje pierwsze tego typu zlecenie. 

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności