Skocz do zawartości

antaba

Forumowicze
  • Postów

    112
  • Dołączył

Treść opublikowana przez antaba

  1. Wierzę, że się ktoś odezwie i pomoże. Najprostszy z możliwych scenariuszy- dodanie nowoprzybyłego maila do arkusza (ciągła błędna autoryzacja) logowanie przez konto Google - https://zapodaj.net/plik-iPMPafAjLE , przez brak karty kredytowej utworzenie konta w Google Coud także niemożliwe. W Zapierze wszystko działa, a w Make problemy. Może ktoś mi pomoże z tą automatyzacją i napisze co mam zrobić, żeby zadziało. Z góry dziękuję.
  2. Proszę o pomoc Mam konto chatgpt dłużej niż 0,5 roku, dlatego wykorzystanie darmowego api z tej strony [ platform.openai.com/overwiev ] chyba jest już niemożliwe (tak sądzę). Muszę wykonać ok. 1000 artykułów na podane frazy kluczowe i umieścić je w tym arkuszu Google Sheets. Do tego posłużył by Make, nawet jest tam gotowa templatka, ale problemem jest API key no i nie znajomość platformy. Scenariusz jest taki https://zapodaj.net/plik-XHiWhJDfrk Nigdy tego nie robiłem, nie wiem, czy Make wstawi te arty w odpowiednie kolumny, pomimo tego samouczka https://community.make.com/t/getting-started-with-openai-gpt-3-and-make/7796?utm_source=make&utm_medium=in-app&utm_campaign=template&_gl=1*otw863*_ga*NDgyNTA4OTE1LjE2ODgyMDk1ODg.*_ga_MY0CJTCDSF*MTY4ODIxNjc2Ni4zLjEuMTY4ODIxNzI1NC44LjAuMA..&_ga=2.165580406.814283844.1688209588-482508915.1688209588 . Pewnie dla Was to bułka z masłem, dla mnie wyzwanie. Jeszcze raz Was proszę o pomoc.
  3. Proszę Was o pomoc, chodzi o Google Sheets i Apps Script. Do sprawdzenia jest n adresów url - każdy z nich zawiera określoną liczbę znaków, określoną liczbę słów kluczowych - url - https://domena.pl/. - ilość znaków w tekście - ilość słów kluczowych. Czy należałoby opracować skrypt, jeżeli tak to jak, jak to zrobić, czy w ogóle się da. Może należałoby otworzyć link, policzyć znaki za pomocą jakieś wtyczki, ilość występowania słowa kluczowego ręcznie, a później sporządzić makro? Jak to zrobić? Jeszcze raz Was proszę o pomoc.
  4. Dzięki Mion. Za pomocą R można PRZEANALIZOWAĆ WIĘCEJ DANYCH, łączyć dane z różnych narzędzi, np. w Clusteric, jest możliwość pobrania danych z Ahrefsa, Majestica pod warunkiem, że wykupisz pakiet premium za ponad 1000 zł, możesz skorzystać z darmowego API od MOZ-a i wyodrębnić dane z Google Search Console. Masz racje, w pozycjonowaniu liczy się czas, ale, ja twierdzisz, R to "egzotyczny język"? O Pythonie też tak powiesz? Gość z Senuto ciekawie o R pisze Pisałem już o pobieraniu danych z Google Analitics, Search Console, w tym artykule jest też o wizualizacji za pomocą Ggplot , wyciągania linków ze stron konkurencji. Prosiłem Cię kiedyś o tzw. web scraping, jest też coś takiego w R Metod jest wiele, ale chodzi o koncepcje. Wiem, że wyciągają backlinki ze stron konkurencji za pomocą R, zresztą taka funkcja jest w Clastericu. A propos Clasterica podpowiedz mi jak za pomocą API,np darmowego MOZ-a wyciągać dane z GA i GSC? Albo Rapid API? Może podpowiesz coś mi o automatyzacji, np Mak'em? Skoro już piszę - podejmiesz się wyzwania?
  5. Chodzi o naukę R w SEO, poza tym mam mało czasu, zostały mi trochę więcej jak 2 tygodnie. Może znasz kogoś kto się tego podejmie?
  6. Ponawiam swoją prośbę, miałem nadzieję, że dam radę, jednak nie. Uczę się podstaw z tego kursu, jak pisałem https://www.youtube.com/watch?v=OYMiz2QheSQ&list=PLJpfWFOjv2_nGuUsWirGBx0-BEVcIUwhO&index=4 Korzystałem także z Senuto, na blogu mają wpis jak wykorzystywać R do pobierania danych z Google Search Console i Google Analitcs - https://www.senuto.com/pl/blog/jak-szybko-pobrac-dane-z-wyszukiwarki-google-oraz-google-analytics-w-r/#gref , jest też znalezisko SzlafRocka dotyczące, m.in. wyciągania błędów z Search Console - https://cran.r-project.org/web/packages/searchConsoleR/searchConsoleR.pdf . Jednak mam problem już przy samej instalacji, instalacji brakujących bibliotek, samej autoryzacji - kod z tego źródła https://github.com/sebaSEO/Senuto_art/blob/main/1.R - nic mi nie idzie, komendy są niedobre, w RStudio na czerwono, najprawdopodobniej przy mojej nikłej wiedzy samemu sobie nie poradzę. Proszę pomóc mi to ogarnąć.
  7. Dziękuję Ci SzlafRock serdecznie, bardzo przydatny link. Zapytam, zbierałeś kiedyś dane z Google Search Console i Google Analitics? Posługiwałeś się kiedyś API od MOZ-a, albo Google Cloud Platform? Może R służył Ci do wyciągania ze strony linków? Co prawda Clusteric "temat ogarnia", ale w tej chwili nie mówimy o tym. Nie jest to także dział zleceń, ale czy udzielisz w temacie R w SEO konsultacji?
  8. Zwracam się do Was z serdeczną prośbą - ponieważ zawalam terminy, rozwiązaniem dla mnie byłaby automatyzacja, np. przy pomocy Make'a i programowanie, np. R. Na teraz zająłem się R, np. uczę się z kursu Jacka Matulewskiego - Podstawy, Typy danych i zmienne. Damian Sałkowski zamieścił na blogu Senuto ciekawy artykuł "Jak szybko pobrać dane z wyszukiwarki Google oraz Google Analytics w R?" i tak na prawdę tym chce się zająć. Chciałem nauczyć się pobierać "hurtem" dane z Google Search Console, z Google Analitics przy wykorzystaniu API Google Cloud Platform. Doinstalowałem dodatkowe brakujące biblioteki ale po wpisaniu search_analitics("https://costam.pl) otrzymuje Error in search_analitics("https://costam.pl") : could not find function "search_analitics" Nie wiem co robić (pewnie błahostka dla Was). Jak to "ugryźć", jak się za to zabrać? Może podpowiecie mi, jak zbierać backlinki ze strony przy pomocy R?
  9. Dziękuję Jimmy za odpowiedź. Jest tych stron - 404, not found, 500, itd. opór. Jest 105 domen. Czy mam 648 razy wpisywać formułkę # Z witryny http://dyvantity.com usunięto większość linków, ale pominięto tą :http://dyvantity.com/msi-laptopy-gamingowe-k.html ? Trochę żmudna robota!
  10. Proszę o pomoc doświadczonych kolegów - przy pomocy Ahrefs Webmaster Tools przeprowadziłem mały "audycik" własnej strony. Analizując backlinki prowadzące do moich produktów widzę, że jest ich 648, np. http://www.harpendenairportcars.co.uk/komputer-, gamingowy-msi-k.html https://www.thygesenvietnam.com/zestaw-komputerowy-intel-core-i5-8gb-500gb-monitpr-led-24-k.html http://byhershop.com/komputer-stacjonarny-gamingowy-k.html i są to przeważnie linki prowadzące do obrazków jpg . Po drugie nasiliła się co m-c zna fala negatywnych komentarzy w marketplace. Czy jest jakaś metoda, żeby z tym walczyć? Na stronie http//widoczni.com/blog/nowy-pingwin-a-disavow-tool/ zapoznałem się z tym poradnikiem. Proszę mimo wszystko Was
  11. Dziękuję za podpowiedzi Pysiowi, ttah'owi, Mion'owi, szacunek Panowie. Niestety Pysiu, mam zainstalowaną Mozille i ten sposób nie może być. A IMPORTXML to nie jest jedno z wielu poleceń XPATH, które służy do pobierania danych z kodu źródłowego? Np. tytuł, meta description, nagłówek H1, dłg ciągu, canonical, itd? To co tu, tak rozumiem, powiedziałeś dotyczyło, m.in. "skrobania" cen na jakimś portalu, zeskrobania, np. tabeli ze strony, adresów e-mail, itp - takie tutoriale - https://www.youtube.[com]/watch?v=4A12xqQPJXU&t=136s , https://www.youtube.[com]/watch?v=3wV9JtRRLdQ to objaśniają. W tym konkretnym przypadku chodziło jak gościu tworzy zakładkę w chrome, wkleja w miejsce html kod java i wyświetlają mu się w niej linki do stron na jakieś zapytanie w Google. Dla Ciebie to pewnie bułka z masłem, a dla mnie problem. I oto chodziło w mojej pierwszej wypowiedzi. Poświęć trochę czasu i zobacz ten tutorial z YT. No dobrze, jak zwykle masz rację, ale co z tego wynika? Nie wiem jak znaleźć właściwą ścieżkę XPath w Chrome i wklejeniu jej do importxml. Wyjaśnisz to?
  12. Nie chodzi o takie harvestowanie. Raczej, jak mówią, web scraping. Analizę on-site można wykonać poprzez "przecrlowlowanie" serwisu i wyciągniecie danych z Screaming Froga, czy Sitebulba, jest to jednak zbyt proste - trzeba znać formuły IMPORTXML, QUERY, REGEX. Są strony, które wykonują scraping, truuu, octoparse, ale nie o to chodzi. Jest darmowy sposób i link z YT dałem wyżej. Dlatego prosiłem Cię o pomoc. Dlaczego wsadzasz mi w usta coś, co nie powiedziałem i nie napisałem Nie wiesz, czy nie chcesz? Wielu z tego forum jest już szefami swoich własnych firm, albo szefami w firmach ze względu na spore doświadczenie, dlatego tak szeroko opisałem problem.
  13. Zawsze się szanuję tych wymagających. Znasz rozwiązanie problemu, bo nie wiem, czy chcesz pomóc?
  14. Dzięki Ci Mion za podpowiedź, darmowe narzędzia to Twój mózg, myślenie, konkurencja, wiedza, ewentualnie "to napisz program", Excel, Google Sheets, formuły, GSC, GA, Google Data Studio, znam te odpowiedzi, ewentualnie "w wojsku byłeś?". Niestety, programować nie umiem, z myśleniem analitycznym też nie jest tak hop (wspomagaj się sztuczną inteligencją), starszych spec. to nawet się nie pytam -"nie wiesz tego?". Podpatrywać i uczyć się non stop. Tyle. Generalnie chodzi o to, że do zapamiętanej zakładki, zamiast adresu url zwróconego przez Google na zapytanie, np. smartfon Samsung Galaxy S20 trzeba wkleić kod java script, mieć skopiowanych 10 adresów z Google w innej zakładce, potem wkleić je sobie do Google Sheets, każdy z nich poddać poleceniom IMPORTXML -tzn. zwrócone wyniki - tytuł, meta description, nagłówki, zastosować formuły wyszukaj.pionowo, jeżelibłąd, dłg, do słów kluczowych tabele przestawne, formuła IMPORTDATA to już czarna magia - klucze API - nie ta liga i taką skróconą analizę szefowi mogę przedstawić. O linkowaniu nie mówię- tzn gdzie linkują - link building to jest osobny temat. I nie może to być płatne oprogramowanie, nie, nie.
  15. Proszę o pomoc, o wytłumaczenie w jaki sposób mogę "zeskrobać" odnośniki w serpach Google, skopiować je do Google Sheets, zastosować, np. formuły IMPORTXML, przeanalizować je w kontekście konkurencji. Nie znam dobrze angielskiego, tutorial przedstawiający ten sposób to https://youtube.{com]/watch?v=PGNAbdX95_k&t=326s, tłumaczy ,m.in. co to burmarklet https://detailed.[com]/chrome-bookmarklets-seo/, ale nie wiem jak zamienić adres url na kod java, wkleić go do zakładki. Niby proste, niestety nie idzie. Zainstalowałem wtyczkę do Chrome Burkmarklet URL , nic mi to nie pomogło. Ktoś wie jak to ogarnąć? Niestety, mój przełożony, dla młodszych stażem w SEO nie "idzie z nami na łatwizne", muszę się nauczyć na darmowych narzędziach zanim dopuści do drogich płatnych. Proszę Was o pomoc w rozwiązaniu tej "zagwozdki".
  16. Czy uważacie, że ktoś zadawałby sobie trud pisania formuł, podczas gdy istnieją crawlery, np. darmowa wersja, "Żaby" do 500 adresów, za 160 funtów płatna wersja, Sitebulb darmowy trial i za 135$ i 378$? Przecież żaden szef szanującej się agencji nie dopuści "świeżaka" do płatnych i drogich narzędzi, jeśli ten wystarczająco dobrze nie będzie znał, np. Google Sheets - wyszukaj pionowo, poziomo, jeżeli błąd, albo nie będzie umiał tworzyć tabel przestawnych, nie znał importxml, html, importrange, choć niewielkie podstawy programowania w Pythonie, czy R, itd. Głównie o to mi chodzi. Gros z Was przeglądający to forum to szefowie firm, albo co najmniej stali bywalcy od wielu lat i co, zatrudniacie kogoś, kto nie zna podstawowych crawlerów? Romanie są też wtyczki do chrome, ale nie o to chodzi Uważasz, że taki Artefakt udostępnił coś mocno nieaktualnego? https://www.youtube.com/watch?v=tYS5i5lrkcI&t=980s
  17. Niestety Pawle, Monoscope nie działa, prawdopodobnie, jak każdego robota serwer zablokował. I co tu teraz zrobić?
  18. Mam 554 artykuły na blogu, potrzebuję wyciągnąć linki wewnętrzne - ilość, dokąd linkują, data, autor (dodam, że formuła =importxml(A2, "//a[contains(@href, 'przyklad.pl')]/@href") nie działa. Pomoże ktoś?
  19. Romanie dziękuję Ci, jednak chyba sitemapa jest za duża, wyskakuje mi błąd. Podpowiedz mi, albo inni forumowicze, a przy okazji uratujcie mi tyłek - jak wyciągnąć 70 url z kategorii, przy okazji wyciągnąć H1 (to akurat mam), jaką formułę zastosować w przypadku opisu kategorii, żeby określić długość tekstu (nie chodzi tu =DŁ(A1), np. Nie wiem jak wyciągnąć z tekstu linki wewnętrzne - formuła z webinaru Artefakt nie działa =importXML(A5;"(//a[contains(@href, 'domena.pl')]/@href)[1]"). Jeszcze raz proszą o podpowiedź jak wyciągnąć te urle - ręcznie to nie ma sensu
  20. Proszę Was o pomoc w zastosowaniu formuły w Google Sheets, za pomocą której wyodrębnię adresy analizowanej strony. - przy pomocy sitemapy (więcej niż 500 url), np. =importxml("A1;"//*[local-name()='url']/*[local-name()='loc'] " ) ta formuła Artefaktu nie zadziała. Umożliwia także szybkie wyciągnięcie tagów z sekcji head, na czym mi też zleżało. Generalnie jak mam sobie zautomatyzować pracę Może istnieje 3 sposób
  21. Temat do zamknięcia, poradziłem sobie dzięki Grey Ronin, któremu dziękuję, oraz tutorialowi z YT - https://www.youtube.com/watch?v=OAm_GUdXBaI&t=1055s, a zmyliło mnie to - https://www.youtube.com/watch?v=8BmG3eNuqGA Nie zmienia to faktu, że i trzeba kupić PRO,żeby dp końca było "git"
  22. Niestety, nie jest to wersja pro, nie jest również tak "różowo" jak to publikują na YT czy w wyszukiwarce stosując,np.widżety, albo wtyczki, - Elementor Header&Footer Builder. Gdyby tak było, nie prosiłbym tutaj nikogo z Was, tym bardziej Ciebie o pomoc. Moim celem było wstawienie kilku podstron do stopki, żeby wzmocnić linkowanie wewnętrzne. Chciałem też dodać mapkę googla z dojazdem do firmy, no i przede wszystkim mail i nr. tel. mojej firmy. Skoro najmocniejsza jest strona główna, to warto chyba nad nią popracować, jak sądzisz? Pisząc "w stopce" mam na myśli ten czarny obszar. To nie jest dobrze -
  23. Zainstalowałem wtyczkę Elementor Header&Footer Builder. Motyw, który mam (Giga-Store) okazuje się, że nic przy pomocy wtyczki nie zrobię. Do edycji jest chyba kod w footer.php. Z łatwego pozycjonowania raczej nici, popraw mnie, jeśli się mylę.
  24. Witam. Proszę o pomoc, mam mały sklepik i nie mogę znaleźć odpowiedniego widżetu w motywie w Wordpress na dole strony, w stopce w celu umieszczenia tam mapy googla, adresu firmy, maila, telefonu, linku do regulaminu i bloga. https://
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności