+ când încărcați fișiere prin FTP
- la crearea de noi postări pe forum
- la revenirea activității la elementele dezactivate anterior
- la încărcarea paginilor statice prin interfața sistemului
- la importul elementelor infoblock
+ la importul cursurilor de formare
Trebuie să găzduiești o conferință sau un eveniment similar? Închirierea sălilor de conferință în Kiev este ceea ce aveți nevoie. Preturi accesibile si calitate superioara garantata!
2. Este necesar să actualizați indexul de căutare:
După importarea datelor prin fișierul CSV
- după activarea elementelor anterior inactive
+ modificarea parametrilor de căutare morfologică
- după adăugarea elementelor de infoblocuri
+ după adăugarea fișierelor prin FTP
+ după modificare, adăugarea regulilor de sortare
+ crearea unei liste de cuvinte „stop”.
3. Reindexare manuală:
Niciodată necesar
+ necesar la schimbarea adreselor forumurilor, blogurilor
+ necesar atunci când adăugați informații nu prin interfața sistemului
+ necesar pentru modulul Rețea socială, dacă site-ul a fost reindexat
- necesar doar la cererea sistemului
+ necesar la modificarea informațiilor fără modificarea datei
- necesar la schimbarea adreselor în setările componentelor la utilizarea infoblocurilor
+ necesar în cazul schimbărilor în cursurile de formare
4. Limitarea zonei de căutare poate fi setată folosind setările componente:
- „Formular de căutare”
+ „Pagină de căutare”
5. Pentru ca o pagină dinamică să participe la căutarea după proprietăți, este necesar:
Includeți infoblocul în lista celor indexați în setările modulului „Căutare”.
+ setați opțiunile corespunzătoare în setările proprietăților infoblock.
- includeți infoblocul în lista de indexați în setările modulului „Blocuri de informații”
6. Indexul include:
+ blocuri de informații pentru care este specificată permisiunea corespunzătoare în setările proprietăților
+ pagini statice pentru care este setat titlul $ APPLICATION -> SetTITLE<>
- pagini statice, în setările de proprietăți a căror participare la căutare este permisă
- orice pagini statice
- blocuri de informații pentru care adresele corecte ale paginilor sunt indicate în setările proprietăților
7. Rezultatul căutării este afișat în conformitate cu
+ drepturi de utilizator
+ restricții specificate în zona de căutare
- limitări ale modulelor și componentelor sistemului
8. Pot fi impuse restricții în zona de căutare din setările modulului „Căutare”:
+ pe tipul de fișier prin mască
- tipul de informații (static sau dinamic)
+ după dimensiunea fișierului
+ la anumite foldere și fișiere
- după numărul documentelor indexate
9. Utilizarea Google Sitemap vă permite să:
+ intră mai repede în rezultatele căutării
+ reduce sarcina pe site
- obțineți avantaje la clasare
+ indexați site-ul mai complet
10. Pentru ca căutarea să funcționeze corect, este necesar ca URL-urile paginilor specificate în setările infoblock să fie
+ către pagini reale cu componente sau cod de program care prelucrează parametrii trecuți acestuia
- la pagini reale
- pe pagini reale cu componente, în care sunt conectate aceste blocuri de informații
11. Pentru a defini documentele care nu sunt implicate în căutare, în pagina de setări a modulului „Căutare”, utilizați câmpul:
Activați masca
- Caractere prin care documentul nu este împărțit în cuvinte
+ Mască de excepție
12. Expresie de căutare: „Mașină germană” nu (opel sau opel) (1938 sau 1939) - pentru modulul „Căutare” înseamnă a găsi
Mașinile germane fabricate înainte de 1938 sau mai târziu de 1939 nu sunt Opel.
+ Mașini germane produse de toate companiile, cu excepția Opel, 1938 sau 1939 cu sintagma exactă în textul „mașină germană”.
- Mașini germane produse de toate companiile, cu excepția Opel, an model 1938 sau 1939.
- Mașinile germane fabricate în 1938 sau 1939 nu sunt Opel.
13. Greutatea este:
Un instrument care vă permite să acordați preferință documentelor dintr-un anumit subiect atunci când afișați rezultatele căutării
- o valoare care determină relevanța documentului pentru cerere
+ parametrul regulii de sortare în rezultatele căutării
14. Utilizarea căutării rapide
+ crește viteza de emitere a rezultatelor
- limitează numărul documentelor găsite
+ înrăutățește clasamentul
15. Regulile de sortare sunt folosite pentru:
Excluderea anumitor documente din căutare
- reducerea sarcinii pe server la reindexarea site-ului
+ controlați ordinea de afișare a informațiilor în lista cu rezultatele căutării
16. Restricțiile în zona de căutare pentru informații statice și dinamice pot fi setate:
În setările proprietăților infoblock
- în setările proprietăților paginii
- în setările modulului Căutare
+ în pagina de căutare a setărilor componentelor
17. Pe pagina „Reindexare site” (Setări> Căutare> Reindexare) puteți reindexa
+ bloguri
+ forumuri
- rețea socială
+ infoblocuri
+ pagini statice
+ cursuri de formare
18. Pentru ca o pagină statică să participe la căutare, trebuie să:
+ creați titlul paginii
- salvați pagina numită index.php
- setați cuvintele cheie ale paginii
Robotul de indexare Yandex accesează cu crawlere în mod regulat paginile site-ului web și le încarcă în baza de date de căutare. În același timp, este posibil ca robotul să nu încarce toate paginile de care aveți nevoie din cauza inaccesibilității acestora.
Yandex.Webmaster vă permite să aflați ce pagini ale site-ului dvs. accesează robotul cu crawlere și să identificați adresele paginilor pe care robotul nu le-a putut încărca din cauza indisponibilității serverului pe care se află site-ul sau din cauza erorilor de conținut a paginilor în sine.
Datele paginii sunt disponibile în Yandex.Webmaster de pe pagină Indexare → Statistici de accesare cu crawlere... Informațiile sunt actualizate zilnic în șase ore din momentul în care robotul vizitează paginile.
În mod implicit, serviciul furnizează date pentru site-ul ca întreg. Pentru a vizualiza informații despre o anumită secțiune, selectați-o din lista din câmpul cu adresa site-ului. Secțiunile disponibile corespund structurii site-ului cunoscută de Yandex (cu excepția secțiunilor adăugate manual).
Dacă lista nu include toate paginile care ar trebui incluse în căutare, raportați-le utilizând instrumentul de accesare cu crawlere a paginilor.
Informațiile despre pagini pot fi descărcate în format XLS sau CSV, ținând cont de filtrele aplicate.
- Dinamica stării paginii
- Filtrarea datelor
Dinamica stării paginii
Informațiile paginii sunt prezentate după cum urmează:
Nou si schimbat- numărul de pagini pe care robotul le-a vizitat pentru prima dată și paginile a căror stare s-a schimbat după următoarea solicitare a robotului.
Istoricul accesării cu crawlere - numărul de pagini pe care robotul le-a accesat cu crawlere, ținând cont de codul de răspuns al serverului.
Modificări ale paginilor din baza de căutare
Pentru a vedea modificările, setați comutatorul la Ultimele modificari... Aceasta va afișa până la 50.000 de modificări.
Webmasterul arată următoarele informații despre pagini:
codul de răspuns al serverului primit de robot la vizitarea paginii.
Pe baza acestor informații, puteți afla cât de des robotul accesează cu crawlere paginile site-ului, precum și să înțelegeți ce pagini tocmai au apărut în baza robotului și pe care robotul le accesează din nou.
Apariția paginii în baza de căutare
Pentru pagina pe care robotul a accesat-o cu crawlere pentru prima dată, starea N/a este afișată în coloana A fost, iar răspunsul serverului (de exemplu, 200 OK) este afișat în coloana Bec.
După încărcarea cu succes în baza de căutare, pagina poate apărea în rezultatele căutării cu cele mai apropiate actualizări de baza de căutare. Informațiile despre aceasta devin disponibile în secțiunea Pagini de căutare.
Reaccesarea paginii de către robot
Dacă robotul a accesat pagina anterior cu crawlere, atunci când este accesată din nou, starea se poate schimba: răspunsul Server primit în timpul vizitei anterioare la robot este afișat în coloana A fost și răspunsul serverului primit în timpul ultimului acces în coloana Bec.
De exemplu, pagina care participă la căutare a devenit inaccesibilă robotului. În acest caz, este exclus de la căutare. La ceva timp după aceea, poate fi văzut în lista de excluși din secțiune Pagini în căutare.
Pagina eliminată din căutare poate rămâne în continuare în baza de căutare pentru a verifica disponibilitatea acesteia. De regulă, robotul continuă să acceseze o astfel de pagină atâta timp cât există link-uri către aceasta sau nu este închisă în fișierul robots.txt.
Lista paginilor vizitate de robot
Pentru a vedea lista de pagini, setați butonul radio la Toate paginile. Lista poate conține până la 50.000 de pagini de site.
Puteți vizualiza lista paginilor site-ului pe care robotul le-a accesat cu crawlere și următoarele informații despre acestea:
data ultimei vizite a paginii de către robot (data crawl-ului);
adresa paginii relativ la directorul rădăcină al site-ului;
codul de răspuns al serverului când robotul a încărcat pagina ultima dată.
Sfat. Dacă lista afișează pagini care au fost deja eliminate de pe site sau nu există, este posibil ca robotul să găsească link-uri către acestea atunci când vizitează alte resurse. Pentru a împiedica robotul să acceseze pagini inutile, dezactivați indexarea acestora folosind directiva Disallow din fișierul robots.txt.
Filtrarea datelor
Informațiile despre pagini și modificările din baza de căutare a robotului pot fi filtrate după toți parametrii prezentați (data accesării cu crawlere, adresa URL a paginii, codul de răspuns al serverului) folosind pictograma. Câteva exemple sunt descrise mai jos:
Răspunsul serverului
Puteți face o listă cu paginile pe care robotul le-a vizitat, dar nu le-a putut încărca din cauza răspunsului serverului 404 Not Found.
În acest caz, puteți identifica pagini noi care sunt inaccesibile robotului prin setarea comutatorului în poziția Ultimele modificari:
Și, de asemenea, obțineți o listă generală de pagini inaccesibile robotului setând comutatorul în poziția Toate paginile:
Prin URL specificând un anumit fragment al adresei
Puteți face o listă de pagini, a căror adresă conține un anumit fragment. Pentru a face acest lucru, selectați valoarea Conține din listă și specificați valoarea necesară în câmp.
Prin URL cu caractere speciale
Caracterele speciale vă permit să specificați nu o potrivire strictă a unui șir, ci începutul, subșirul și condiții mai complexe folosind expresii regulate. Pentru a le utiliza, selectați valoarea Condiții din listă și introduceți condiția în câmp. Puteți adăuga mai multe condiții - fiecare dintre ele trebuie să înceapă pe o linie nouă.
Există reguli pentru condiții:
îndeplini oricare dintre condiții (corespunde operatorului „SAU”);
îndepliniți toate condițiile (corespunde operatorului „ȘI”).
Simbol | Descriere | Exemplu |
---|---|---|
* | Folosind caracterul * |
|
@ | ||
~ | expresie uzuala | |
! | Negarea unei condiții |
Simbol | Descriere | Exemplu |
---|---|---|
* | Se potrivește cu orice număr de caractere | Afișează datele pentru toate paginile care încep cu https://example.com/tariff/, inclusiv pagina specificată: / tarif / * Folosind caracterul * Caracterul * poate fi util atunci când căutați adrese URL care conțin două sau mai multe elemente specifice. De exemplu, puteți găsi știri sau anunțuri pentru un anumit an: / știri / * / 2017 /. |
@ | Datele selectate conțin șirul specificat (dar nu se potrivesc neapărat strict) | Afișează datele pentru toate paginile a căror adresă URL conține șirul specificat: @tariff |
~ | Condiția este o expresie regulată | Afișați datele pentru paginile a căror adresă URL corespunde unei expresii regulate. De exemplu, puteți selecta toate paginile cu una sau mai multe mențiuni în URL: ~ masă | canapea | pat |
! | Negarea unei condiții | Excludeți datele pentru paginile a căror adresă URL începe cu rândul https://example.com/tariff/:! / Tarif / * |
Când sunt folosite caractere, nu este sensibilă la majuscule. Adăugați site-ul la Yandex.Webmaster și verificați drepturile asupra acestuia. De asemenea, verificați dacă există blocări ale serverului. Dacă serverul afișează o eroare, robotul oprește indexarea și face următoarea încercare într-o ordine generală de accesare cu crawlere.
Angajații Yandex nu pot accelera adăugarea de pagini la baza de căutare.
Cât timp durează site-ul să intre în Yandex?
Nu anticipăm momentul indexării site-urilor și nu oferim garanții că acest sau acel site va fi indexat. De regulă, din momentul în care un robot află despre un site și până când paginile sale apar în rezultatele căutării, durează de la câteva zile la două săptămâni.
Ai încercat să descarci informații secrete de pe serverul meu. Ce sa fac?
Robotul preia link-uri de la alte pagini, ceea ce înseamnă că o anumită pagină conține link-uri către secțiuni secrete ale site-ului tău. Puteți fie să le închideți cu o parolă, fie să specificați o interdicție pentru robotul Yandex în fișierul robots.txt. În niciun caz, robotul nu va descărca informații clasificate.