Ismétlődő oldalak keresése. Belső ellenség – Oldalak megkettőzése

Megjelent egy új könyvünk "Tartalommarketing in a közösségi hálózatokon: Hogyan kerülhetsz az előfizetők fejébe és szerethetsz bele a márkádba.

Az ismétlődő oldalak olyan oldalak, amelyek különböző URL-címeken azonosak egymással. Az oldalak másolatai megnehezítik a webhelyek indexelését a keresőmotorokban.

Mik azok az ismétlődő oldalak a webhelyen

Használat közben ismétlődések fordulhatnak elő különböző rendszerek tartalom kitöltés. Nem baj a felhasználó számára, ha a másolatok ugyanazon a webhelyen vannak. De kereső motorok, miután ismétlődő oldalakat találtak, alkalmazhatnak szűrőt / alacsonyabb pozíciókat stb. Ezért az ismétlődéseket gyorsan el kell távolítani, és meg kell akadályozni, hogy megjelenjenek.

Milyen típusú másolatok vannak

A webhely ismétlődő oldalai teljesek és hiányosak.

  • Hiányos felvételek- ha a tartalom töredékei megkettőződnek az erőforráson. Így például, és a szöveg egyes részeit az egyik cikkben a másikból helyezzük el, részleges többszörözést kapunk. Néha az ilyen másolatokat hiányosnak nevezik.
  • Full veszi olyan oldalak, amelyek rendelkeznek teljes másolatok. Rontják az oldal rangsorát.

Például sok blog ismétlődő oldalakat tartalmaz. Az ismétlődések befolyásolják a rangsorolást, és a tartalom értékét semmivé csökkentik. Ezért meg kell szabadulnia az ismétlődő oldalaktól.

Az ismétlődő oldalak okai

  1. A Tartalomkezelő rendszer használata(CMS) az oldalak ismétlődésének leggyakoribb oka. Például, ha egy erőforráson egy bejegyzés egyszerre több kategóriába tartozik, amelyek tartományai szerepelnek magának a bejegyzésnek a helycímében. Az eredmény ismétlődő oldalak: például:
    wiki.site.ru/blog1/info/
    wiki.site.ru/blog2/info/
  2. Műszaki rész s. Itt Bitrix és Joomla vétkezik a legtöbbet. Például az egyik webhelyfunkció (keresés, szűrés, regisztráció stb.) paraméteres címeket generál ugyanazzal az információval egy olyan erőforráshoz kapcsolódóan, amely nem tartalmaz paramétereket az URL-ben. Például:
    site.ru/rarticles.php
    site.ru/rarticles.php?ajax=Y
  3. Emberi tényező. Itt mindenekelőtt azt jelenti, hogy egy személy figyelmetlensége miatt ugyanazt a cikket többszörözheti az oldal több szakaszában.
  4. Műszaki hibák. A különböző információkezelő rendszerek helytelen hivatkozásgenerálása és beállításai esetén hibák lépnek fel, amelyek oldalak megkettőzéséhez vezetnek. Például, ha a hivatkozás görbe az Opencart rendszerben, akkor hurok fordulhat elő:
    site.ru/tools/tools/tools/…/…/…

Miért veszélyesek az ismétlődő oldalak?

  1. Sokkal nehezebbé válik az oldal optimalizálása a keresőmotorokban. Egy oldalnak több másolata is lehet a keresőmotor indexében. Zavarják más oldalak indexelését.
  2. elveszett Külső linkek a weboldalra. A másolatok megnehezítik a releváns oldalak azonosítását.
  3. A kimenetben duplikátumok vannak. Ha a duplikált forrást viselkedési mérőszámokkal és jó forgalommal látják el, akkor az adatok frissítésekor átveheti a fő erőforrás helyét a keresőmotor eredményei között.
  4. Elveszett pozíciók a keresőmotorok kiadásában. Ha homályos ismétlődések vannak a fő szövegben, akkor előfordulhat, hogy a cikk nem kerül be a SERP-be az alacsony egyediség miatt. Így például előfordulhat, hogy a hírek, blogok, bejegyzések stb. egy részét egyszerűen nem veszik észre, mivel a keresési algoritmus duplikátumokat keres.
  5. Növekszik annak a valószínűsége, hogy a fő webhely a keresőmotorok szűrője alá kerül. A Google és a Yandex keresőmotorok küzdenek a nem egyedi információk ellen, szankciókat vethetnek ki az oldalra.

Az ismétlődő oldalak keresése

Az ismétlődő oldalak eltávolításához először meg kell találnia azokat. Háromféleképpen találhat másolatokat az oldalon.


Az ismétlődő oldalak eltávolítása

Meg kell szabadulnia a duplikátumoktól. Meg kell érteni az előfordulás okait, és meg kell akadályozni az oldalak másolatainak terjesztését.

  • Használhatja a keresőmotor beépített funkcióit. A Google-on használjon attribútumot rel="canonical" formában. Egy címke be van ágyazva az űrlapon lévő minden egyes változat kódjába , amely az indexelendő mesteroldalra mutat.
  • A robots.txt fájlban letilthatja az oldalindexelést. Ilyen módon azonban nem lehet teljesen kiküszöbölni a duplikációkat a keresőben. Végül is nem írhat indexelési szabályokat minden egyes oldalra, ez csak oldalcsoportokra fog működni.
  • Használhat 301-es átirányításokat. Tehát a robotok át lesznek irányítva a másolatból az eredeti forrásba. Ebben az esetben a szerver 301-es válasza közli, hogy ilyen oldal már nem létezik.

Az ismétlődések befolyásolják a helyezést. Ha nem távolítják el őket időben, akkor nagy a valószínűsége annak, hogy az oldal a Panda és az ACS szűrők alá kerül.

és ha van duplikált tartalom, és más az url, van canonical és be van zárva a robotokban, de az oldal az indexben van, akkor ezt hogyan kell tekinteni?

A Canonical megoldja a duplikációs problémát.
De ha az oldal bekerült az indexbe, majd bezárták a robots.txt-ben, akkor a robot nem tudja újra beolvasni és újraszámolni a paramétereket.

Egyetértek az előző válasszal. A problémát úgy oldhatja meg, hogy törlési kérelmet küld a keresőkonzolon.

Maxim Gordienko

Miért ajánlatos a kanonikus oldalszámozást használni a szöveg törlése helyett + noindex, követés + "N oldal" hozzáadása a cím elejéhez a lapozás második és azt követő oldalán (vagy megadhatja az előző / következő oldalt is) ? Azt tapasztaltam, hogy a kanonikus termékek elhelyezésekor a második és az azt követő oldalakról rosszul indexeltek.

Volt-e gyakorlat az X-Robots-Tag HTTP fejléc használatával az oldalindexelés megakadályozására, mivel robotok használatakor gyakran felbukkannak az ehhez hasonló oldalak: http://my.jetscreenshot.com... ?

A Canonical csak egy ajánlás. A releváns oldalakhoz 301-es átirányításokat is használhat. Az ismétlődések keresésére szolgáló programokhoz - azt javaslom, hogy a Comparser + megmutatja az oldal szerkezetét, és van még néhány hasznos funkció. A Serpstat drága.

Inkább használd a canonical és a prev-nektseket, és nagyszerű lesz.

Maxim Gordienko

A Seoprofi például azt írja, hogy a kanonikus oldalszámozásra csak akkor van értelme, ha van "minden termék megjelenítése" oldal (és a Google ajánlásai nem adnak példát a klasszikus formában történő lapozásra). Tehát a második oldalon lévő áruk (tartalom) eltérnek az elsőtől, nem logikus kanonikust beállítani.

Ha csak a duplikációkat kell ellenőriznie, akkor jobb, ha speciális szoftvert használ. A Netpeak Spider-t ajánlom. Jelenleg aktív fejlesztés alatt áll, és rengeteg paramétert ellenőrzi a https://netpeaksoftware.com... oldalon. Munkahelyünkön folyamatosan használjuk.
A Serpstat azért jó, mert egy platform sok eszközzel: lekérdezéselemzés, hivatkozások, audit, pozícióellenőrzés.

Mondjuk bimbós menyét, az új kategóriákat eltávolítottuk az online áruház oldaláról, újakat hoztunk létre, az eltávolított kategóriákban új árukategóriákat írtak elő az árukhoz - ezt követően új árukategóriák jöttek létre bennünk, és ismétlődések jöttek létre az új kategória URL-jében. Hogyan jobb rabolni? Győződjön meg arról, hogy az URL statikus (nem dinamikus) a termékhez, és helyezzen el 301-es átirányításokat a régi oldalakon az új alkotásokról? (іnternet-magazin іsnuє 6 mіsyаcіv) chi maє zmіnyuvatisya url a termék yakscho zmіnili categorіyu? (a termék URL-jének szerkezetében є a kategória megnevezése).

1. A termékek URL-címeinek megkettőzésének elkerülése érdekében tegye őket ugyanabba a /termék/ mappába, és a kategóriák a kenyérdobozok menüjében lesznek beállítva.
2. Bár erre nincs lehetőség, válasszon egyet a lehetőségek közül.
2.1. A rel canonical linkje a termék főoldalára. A lehető leghamarabb egy új oldal ára az Ön véleménye szerint, mert az új kategória benne van az URL-ben. És te magad választod a fő oldalt.
2.2. Jelölje be a 301-es átirányítást a fej URL-jére. Ha nem az Ön hibája a webhelyen, küldjön üzenetet a régi URL-re, majd küldje el egy 301-es átirányításra.
3. A termék URL-jei nagyobb valószínűséggel statikusak vagy felhasználóbarátak.
4. "a termék chi maє zmіnyuvatisya URL-je yakshcho zmіnili categorіyu? (a termék url-jének szerkezetében є a kategória neve)."
Bár nem lehet nem kategóriát beállítani az URL-ben (mint az 1. bekezdésben), de amikor módosítja a kategóriát az URL-ben, akkor a 301-es átirányítást is meg kell változtatnia és módosítania kell egy új címre.

Egy ilyen kiterjedt magyarázatért)

Ismerje meg, hogyan kerülheti el az ismétlődő tartalmat. 33 azonos típusú elem található https://delivax.com.ua/pack...
Mindegyikhez egyedi leírást írni nehéz, és úgy tűnik, nem is szükséges. De amiatt, hogy a leírás duplikált, az index 33 pozíciójából csak 5. Megéri ezen aggódni és mit kell tenni?

Az egyik fő oka annak, hogy egy webhely elveszítheti pozícióit és forgalmat, az a webhelyen található ismétlődő oldalak növekvő száma. Felmerülhetnek a CMS (motor) sajátosságaiból, az oldalak sablonos oldalszámának növekedéséből adódóan a keresésből származó maximális forgalom elérésének vágyából, valamint a linkek tudatos vagy nem tudatos elhelyezéséből. harmadik felek által más forrásokból származó másolatokhoz.

Az ismétlődések problémája nagyon szorosan kapcsolódik egy oldal kanonikus címének keresési elemző általi megtalálásának problémájához. Bizonyos esetekben a robot meg tudja határozni a kanonikus címet, például ha a paraméterek sorrendje megváltozott a dinamikus URL-ben:

?&cat= 10 &termék= 25

Valójában ez ugyanaz az oldal, mint

termék= 25 &macska= 10

De a legtöbb esetben, különösen a használatakor, nehéz meghatározni a kanonikus oldalt, ezért a teljes és részleges ismétlődések az indexbe kerülnek.

Érdekes módon a Yandex esetében a duplikációk nem olyan szörnyűek, és még a webhely keresési eredményoldalain is (amelyek részben másolatai egymásnak) jó forgalom, de a Google kritikusabb a duplikációkkal szemben (az MFA és a sablonoldalak elleni küzdelem miatt).

A webhelyen található ismétlődések megtalálásának fő módszerei

Az alábbiakban bemutatjuk azokat a fő módszereket, amelyek segítségével gyorsan megtalálhatja webhelyén az ismétlődő oldalakat. Rendszeresen használja őket.

1. Google Webmester

Menj google bar webmesterek számára. Keresse meg az "Optimalizálás" - "HTML optimalizálása" menüpontot. Ezen az oldalon láthatja az ismétlődő metaleírások és CÍMEK számát.

Ily módon az oldalak teljes példányát megtalálhatja, de sajnos nem lehet meghatározni részleges másolatokat, amelyek egyedi, de sablonfejlécekkel rendelkeznek.

2.Xenu program

Xenu Link Sleuth- az egyik népszerű optimalizáló program, amely segít a webhely műszaki ellenőrzésében, és többek között a duplikált címek megtalálásában (ha például nem fér hozzá a Google Webmesterhez).

A programról további részletek egy áttekintő cikkben találhatók. Egyszerűen térképezze fel a webhelyet, rendezze az eredményeket cím szerint, és keresse a vizuális címsorok egyezéseit. Minden kényelemmel Ily módon ugyanaz a hátránya – nem lehet részleges oldalduplikációkat találni.

3. Keresési eredmények

A keresési eredmények nemcsak magát a webhelyet tükrözhetik, hanem a keresőmotor hozzáállását is. Ha másolatokat szeretne keresni a Google-on, használhat egy speciális lekérdezést.

site:mysite.ru -site:mysite.ru /&

Hol vannak az összetevők:

site:mysite.ru- a mysite.ru webhely azon oldalait mutatja, amelyek a Google indexében (általános index) szerepelnek.

site:mysite.ru/&- megmutatja a mysite.ru webhely keresésben részt vevő oldalait (főindex).

Így azonosíthatja a kevés információt tartalmazó oldalakat és a részleges ismétlődéseket, amelyek nem vesznek részt a keresésben, és megakadályozhatják, hogy a fő index oldalai magasabban helyezkedjenek el. Kereséskor feltétlenül kattintson a „Keresés ismétlése, beleértve a hiányzó találatokat” linkre, ha kevés volt a találat, hogy objektívebb képet lásson (lásd a példát webhely: drezex.com.ua -site:drezex.com.ua/&).

Most, hogy megtalálta az összes ismétlődő oldalt, biztonságosan eltávolíthatja őket a webhely motorjának beállításával vagy címkék hozzáadásával az oldalak címeihez.

- aki a weboldal népszerűsítésén dolgozik. Két azonos mesteroldalt tud létrehozni, amelyek címei különböznek egymástól.

A keresőmotorok algoritmusai automatikusan működnek, és gyakran előfordul, hogy a duplikációt a rendszer relevánsabbnak érzékeli, mint az eredeti oldalt. Ennek eredményeként a kimenet nem az eredetit, hanem a másolatát adja vissza. A másolatnak viszont más paraméterei is vannak, amelyek később befolyásolják a webhely pesszimistadását.

Létezik különböző módokon keressen és ellenőrizze az ismétlődő oldalakat. Az előadótól eltérő mértékű CMS-tudást, valamint a keresési index működésének megértését követelik meg. Próbáljuk megmutatni a legegyszerűbb módja hogy ellenőrizze a webhelyen ismétlődő oldalakat. Azonnal megjegyezzük, hogy ez a módszer nem túl pontos. Ugyanakkor ez a módszer lehetővé teszi a webhely ismétlődő oldalainak keresését, és nem vesz sok időt.

Most nézzük meg, hogyan kell ugyanezt megtenni csak a Google rendszerében. Elvileg az eljárás nem különbözik, ugyanazokat a műveleteket kell végrehajtania, mint a Yandex.

A Yandex keresőmotor azonnal megadja az ismétlődések listáját, de a Google-ban a másolatok megtekintéséhez kattintson a "Rejtett találatok megjelenítése" gombra, mivel az eredeti oldal gyakran megjelenik a képernyőn.

A képen látható, hogy a fő számban az oldal 1 oldala van, és az is az eredeti. De vannak más oldalak is az indexben, amelyek ismétlődnek. Megtekintésükhöz kattintson a „Rejtett találatok megjelenítése” hivatkozásra. Ennek eredményeként kapunk egy listát, ahol az eredeti az 1-es számmal áll, és ekkor már vannak elhelyezve a sokszorosítók. A másolatokat gyakran kézzel kell megtisztítani.

Hogyan lehet ellenőrizni, hogy egy webhelyen vannak-e ismétlődő oldalak

Az alábbi cikkben ma megpróbáljuk megvizsgálni az ismétlődő oldalak problémájával kapcsolatos számos kérdést, mi okozza a duplikációkat, hogyan lehet megszabadulni tőle, és általában miért kell megszabadulni a duplikátumoktól.

Kezdésként nézzük meg, mi rejlik a „tartalom-másolás” fogalma alatt. Gyakran előfordul, hogy egyes oldalak részben vagy teljesen azonos tartalmat tartalmazhatnak. Nyilvánvaló, hogy minden egyes oldalnak megvan a saját címe.

A duplikációk okai:

- a webhelytulajdonosok maguk hoznak létre másolatokat meghatározott célokra. Tegyük fel, hogy ez lehet egy nyomtatható oldal, amely lehetővé teszi, hogy egy kereskedelmi webhely látogatója lemásolja a szükséges információkat egy adott termékről vagy szolgáltatásról.

- ezeket az internetes erőforrás motorja generálja, mivel az be van ágyazva a testükbe. Bizonyos számú modern CMS képes hasonló oldalakat előállítani különböző URL-ekkel, amelyek különböző könyvtárakban találhatók.

- a webhely promócióján dolgozó webmester hibái. Két azonos mesteroldalt tud létrehozni, amelyek címei különböznek egymástól.

- az oldal szerkezetének megváltoztatása. Ha új sablont hoz létre más URL-rendszerrel, a régi tartalmat tartalmazó új oldalak más URL-eket kapnak.

Felsoroltuk lehetséges okok egyértelmű kettősök előfordulása, de vannak fuzzy, azaz részlegesek is. Ezeknek az oldalaknak gyakran hasonló része van a forrássablonnak, de tartalmuk kissé eltér. Hasonló ismétlődések lehetnek olyan webhelyoldalak, amelyeknek ugyanaz a keresési eredménye, ill külön elem cikkeket. Leggyakrabban ezek az elemek képek.

Szabaduljon meg az ismétlődő oldalaktól. Nem, ez nem vírus, hanem idővel nő is, azonban ez nem magától az erőforrástól függ. Az ismétlődések gyakran egy nem professzionális webmester vagy egy helytelen webhelykód eredménye.

Fontos tudni, hogy a duplikációk jelentős károkat okozhatnak az erőforrásban. Milyen következményekkel jár az ismétlődések jelenléte a webhelyen? Először is, ez az erőforrás indexálásának romlása. Fogadja el, hogy egy ilyen helyzet nem fog tetszeni a webhely tulajdonosának. Míg a pénzügyeket és az időt folyamatosan az erőforrás népszerűsítésére fordítják, az erőforrás néhány napon belül kezd veszíteni népszerűségéből. A probléma mélysége a felvételek számától függ.

Előfordulhat, hogy a főoldalon néhány ismétlődés található. A blogokkal némileg más a helyzet. A replytocomnak köszönhetően hatalmas mennyiségű ismétlődés keletkezhet a megjegyzések másolása miatt. Kiderült, hogy minél népszerűbb a blog, annál több másolatot fog tartalmazni. Viszont a keresőmotorok Google funkciók, az ilyen ismétlődések jelenléte miatt alábecsüli az erőforrás pozícióját.

A keresőmotorok algoritmusai automatikusan működnek, és gyakran előfordul, hogy a duplikációt a rendszer relevánsabbnak érzékeli, mint az eredeti oldalt. Ennek eredményeként a kimenet nem az eredetit, hanem a másolatát adja vissza. A másolatnak viszont más paraméterei is vannak, amelyek később befolyásolják a webhely pesszimistadását.

Mit kapunk? A duplikált oldalak valódi akadályt jelentenek a webhely indexelésében, valamint az oka annak, hogy a keresőmotor rosszul választotta ki az érintett oldalt, csökkenti a természetes hivatkozások hatását. Ezenkívül a duplikációk helytelenül osztják el a belső súlyt, csökkentve a hirdetett oldalak erejét, valamint megváltoztatják a viselkedési mutatókat.

Hogyan lehet ellenőrizni a webhelyen, hogy nincsenek-e ismétlődő oldalak?

Az ismétlődő oldalak keresésének és ellenőrzésének többféle módja van. Az előadótól eltérő mértékű CMS-tudást, valamint a keresési index működésének megértését követelik meg. Próbáljuk meg bemutatni a legegyszerűbb módszert annak ellenőrzésére, hogy a webhelyen vannak-e ismétlődő oldalak. Azonnal megjegyezzük, hogy ez a módszer nem túl pontos. Ugyanakkor ez a módszer lehetővé teszi a webhely ismétlődő oldalainak keresését, és nem vesz sok időt.

A saját erőforrásának ismétlődések kereséséhez és ellenőrzéséhez csak egy speciális lekérdezést kell beírnia a keresőmotor speciális keresésébe. Ha a Yandexben a keresés speciális verzióját használja, meglehetősen részletes eredményeket kaphat, mivel itt lehetőség van a lekérdezés finomítási paramétereinek megadására.

Szükségünk van az erőforrás címére és a szövegnek arra a részére, amelyet másolni szeretnénk. Ehhez ki kell választanunk egy szövegrészt az oldalunkon, majd be kell írni a másolt szöveget és a webhely címét a Yandex rendszer speciális keresésébe. Most rá kell kattintania a "Keresés" gombra, amely után a rendszer elkezdi a keresést.

Az eredmények nem jelennek meg itt normál mód. A webhelyek listája csak az erőforrásunk címét és töredékét tartalmazza. Abban az esetben, ha a rendszer egyetlen eredményt ad, ez azt jelenti, hogy ennek az oldalnak nincsenek ismétlődései. De több eredmény kiadásakor dolgozni kell.

Most nézzük meg, hogyan kell ugyanezt megtenni csak a Google rendszerében. Elvileg az eljárás nem különbözik, ugyanazokat a lépéseket kell végrehajtania, mint a Yandex.

A speciális keresés megkönnyíti egy adott szövegrész összes ismétlődésének megtalálását. Természetesen így nem kapunk másolatot olyan oldalakról, amelyek nem tartalmazzák a megadott szöveget. El kell mondanunk, hogy ha a másolatot egy íves sablon hozta létre, akkor az csak egy másik oldalon jelenít meg például egy képet az eredetiről. Természetesen, ha a másolat nem tartalmaz szöveget, akkor azt a fent leírt módszerrel nem lehet meghatározni. Ehhez más módra van szükség.

A második módszert is az egyszerűség különbözteti meg. Speciális operátort kell használnia, és kérnie kell webhelyének vagy egyes oldalainak indexelését. Ezt követően manuálisan meg kell vizsgálnia a problémát a másolatok kereséséhez.

A szükséges lekérdezés szintaktikai szabályok a következők:

Abban a helyzetben, amikor csak a cím kerül be a keresésbe kezdőlap, akkor megjelenik az indexelt oldalak listája keresőrobot segítségével. De ha megadjuk a címet konkrét oldal, akkor a rendszer megjeleníti az oldal már indexelt másolatait.

A Yandex keresőmotor azonnal megadja az ismétlődések listáját, de a Google-ban a másolatok megtekintéséhez kattintson a "Rejtett találatok megjelenítése" gombra, mivel az eredeti oldal gyakran megjelenik a képernyőn.

Ahogy a képen is látszik, a fő számban az oldal egy oldala van, és az is az eredeti. De vannak más oldalak is az indexben, amelyek ismétlődnek. Megtekintésükhöz kattintson a „Rejtett találatok megjelenítése” hivatkozásra. Ennek eredményeként kapunk egy listát, ahol az eredeti az 1-es számmal áll, és ekkor már vannak elhelyezve a sokszorosítók. A másolatokat gyakran kézzel kell megtisztítani.

Ma az ismétlődő tartalomról fogunk beszélni, vagy inkább az erőforrásában található ismétlődő oldalak megtalálásának módszereiről. A duplikációs probléma modern internet akut, mert ha van duplikált oldalak a webhelyen, megbüntethetik a keresőmotorok.

Tehát az első dolog, amit tudnunk kell: mi az a tartalomduplikáció (duplikált oldalak)” és milyen típusai vannak, majd keressük a kezelési módokat.

Ismétlődő tartalom ugyanazt a szöveget jeleníti meg különböző oldalak oldalon (különböző címeken). A webhely ismétlődő oldalainak két típusa van:

  • Teljes másolatok;
  • Hiányos (részleges) másolatok;

Full veszi- Ez az, amikor az egyik oldal teljesen megjeleníti egy másik oldal tartalmát, ugyanakkor más címe van.?&cat=10&product=25 és https://site/?product=25&cat=10

Hiányos felvételek- ez az oldal szövegének részleges megjelenítése egy másik oldalon. Ez például egy hírfolyam a blogokban vagy szöveg az oldalsávokon. Leggyakrabban online áruházakban és olyan webhelyeken találhatók, ahol közleményeket és híreket tesznek közzé.

Hogyan lehet azonosítani az ismétlődő oldalakat a webhelyen.

Az alábbiakban bemutatom azokat a módszereket, amelyeket a másolatok meghatározására használnak. Nincs itt semmi bonyolult, csak egy kis idő és türelem kell hozzá.

  1. Yandex keresési eredmények;
  2. Google keresési eredmények;
  3. Az oldal perjellel „/” és anélkül nyílik meg;
  4. Az oldal www-vel és www nélkül nyílik meg;

1. Kezdjük az első módszerrel, lépjen a Google webmesteri fiókjába. Ezután lépjen a "" lapra Megtekintés a keresésben vagy az optimalizálásban” és válassza a „ HTML optimalizálás". Ezen az oldalon megtalálhatja és megtekintheti az összes kapcsolódó meta leírást és címet.

A Google Webmester meghatározza a webhely ismétlődő oldalait.

Ez a módszer kiválóan alkalmas a teljes felvételek észlelésére, a részleges felvételek ezzel a módszerrel nem észlelhetők.

2. Ezután megvizsgáljuk, hogyan határozhatja meg a duplikációkat a használatával Keresési eredmények Yandex. Bemegyünk a keresőbe, és beírjuk a szöveg egy részét, miközben „idézőjelbe” csomagoljuk, hogy megkapjuk a kifejezés pontos előfordulását.



Yandex - ellenőrizze az ismétlődő oldalakat

Ha az eredetinek csak egy oldala jelent meg a keresési eredmények között, ez kiváló - ez azt jelenti, hogy nincsenek ismétlődések, de ha néhány oldal jelenik meg, akkor vannak ismétlődések, amelyeket el kell távolítani.

3. A kereső használata Google rendszerek, meghatározhatja az ismétlődő oldalakat a webhelyen, akárcsak a Yandex. Csak akkor szükséges keresési karakterláncírja be a kérést: site:moysite.ru -site:moysite.ru/&, ahol a moysite.ru kifejezés helyére a webhely címe lép. Ha csak egy webhelyet találtak a keresési eredmények között, akkor nincsenek ismétlődések, ha több is van, intézkedéseket kell tenni a duplikáció leküzdésére.

4. A sokszorosítás is legyőzhető, ha használod. A rendszer képes olyan automatikus linkeket generálni, amelyek perjellel „/” és anélkül is megnyílnak.?&cat=10&product=25, ellenőrizheti, hogy ez a cím perjel „/” végén nyílik-e =10&termék= 25/. Ha megnyílik, és nem irányítja át () a fenti oldalra, akkor ez egy ismétlődő oldal. Ha átirányítja, akkor minden rendben működik, és nem kell aggódnia.

5. Meghatározzuk az oldal főoldalának tükreit. A fent leírt módszerhez hasonlóan megpróbáljuk a www-t hozzáadni, vagy eltávolítani a webhely címeit az előlapról. Ha az egyik és a másik címről van szó, akkor a főoldal másolatai vannak, és össze kell ragasztani őket, és ki kell választani a webhely fő tükrét.

Keressen duplikált tartalmat az erőforrásában, mivel ez rossz következményekkel járhat. Ha a Yandex még lojálisabb a másolatokhoz, akkor a Google nagyon megbünteti ezt és kiszabja. A duplikált oldalak durván szólva internetes szemétnek számítanak, és a keresőmotorok nem szeretik a szemetet, mert rengeteg erőforrást fogyaszt. Ezért azt tanácsolom, hogy még azelőtt szüntesse meg ezeket a problémákat, mielőtt a keresőmotor indexelné a cikket.