A keresőoptimalizálás (Search Engine Optimization – SEO) egy honlap vagy egy weboldal helyzetének javítását jelenti a keresőmotor „normál” vagy nem fizetett („organikus”) keresési eredményeiben. Általában minél előbb (vagy magasabb rangúként), és minél többször jelenik meg egy oldal a keresési eredmények listájában, annál több látógatót fog szerezni a keresőmotor használói közül. A SEO különböző kereséseket célozhat meg, beleértve a képkeresést, lokális keresést, videókeresést, tudományos keresést, hírkeresést és az iparág-specifikus vertikális keresést.
A SEO internetes marketing stratégiaként figyelembe veszi a keresőmotorok működését, a felhasználók által keresett szavakat, a keresőmotorba beírt kifejezéseket és kulcsszavakat, valamint a célközönség által előnyben részesített keresőmotorokat. Egy honlap optimalizálása magába foglalhatja a honlap tartalmának szerkesztését és a HTML-kódjának a szerkesztését a specifikus kulcsszavakhoz való relevancia növelése és a keresőmotorok indexelése előtt lévő akadályok megszüntetése érdekében. Egy másik SEO módszer a külső hivatkozások („backlink”) vagy bejövő hivatkozások („inbound link”) számának növelése.
A SEO rövidítés többes száma utalhat a „keresőoptimalizálók”-ra is, azokra, akik SEO szolgáltatásokat nyújtanak.
A keresőoptimalizálás története:
A webmesterek és a tartalomszolgáltatók már az 1990-es évek közepén elkezdték a keresőoptimalizálást, amikor az első keresőmotorok katalogizálták a korai világhálót. Kezdetben az összes webmesternek be kellett küldenie az oldal címét vagy URL-jét a különféle keresőmotorokhoz, ami visszaküldött egy keresőgépet („spider”), hogy feltérképezze az oldalt. A folyamat során a keresőgép letölti az oldalt és eltárolja a keresőmotor saját szerverén, ahol egy „indexelő”-ként ismert második program kivon különböző információkat az oldalról, mint például az oldal által tartalmazott szavakat, hogy azok a szavak hol helyezkednek el, valamint bizonyos szavak többségét és az oldal által tartalmazott linkeket.
Az oldalak tulajdonosai hamar felismerték, hogy milyen előnyökkel jár, ha az oldaluk jó pozícióban van és látható a keresőmotor eredményeiben, ezzel lehetőséget teremtve a tisztességes („white hat”) és a tisztességtelen („black hat”) SEO módszereknek egyaránt. A „keresőoptimalizálás” kifejezés, az iparági elemző Danny Sullivan szerint, valószínűleg 1997-ben lett használatos. A keresőoptimalizálás kifejezés első dokumentált használata John Audette nevéhez és a Multimedia Marketing Group nevű céghez fűződik, amely kifejezés 1997 augusztusában volt megtalálható az MMG honlapján.
A keresőalgoritmusok (a keresőalgoritmus egy bizonyos tulajdonsággal felruházott elemet keres elemek egy gyűjteményében)korai változata a webmesterek által szolgáltatott információkra támaszkodtak, mint például a kulcsszó meta tag (a meta tag segítségével meghatározható a robotok számára, hogy mit láthatnak, mit nem láthatnak illetve, mit lássanak és meddig menjenek az oldaladon keresztül) vagy a keresőmotorokban az indexfájlok (egy fájlban tárolt adatok keresését segítő, mutatókat tartalmazó segédfájl), mint az ALIWEB. A meta tagok útmutatót nyújtanak minden egyes oldal tartalmához. Az oldalak indexeléséhez használt meta adatokat megbízhatatlannak találták, mivel a webmesterek által megadott kulcsszavak a meta tag-ben esetlegesen az oldal aktuális tartalmának pontatlan képe lehet. A pontatlan, hiányos és inkonzisztens adatok a meta tag-ekben nem a tárgyhoz tartozó keresésekbe való sorolást eredményezhettek. Az internetes tartalomszolgáltatók egy oldal HTML forrásán belüli számos attribútum manipulálásával igyekeznek előrébb sorolni az oldalt a keresőmotorban.
A kizárólag egy webmester ellenőrzése alatt lévő tényezők miatt, mint például a kulcsszavak erőssége, a korai keresőmotorok esetén sok visszaélés és a rangsor manipulációja is általános volt. Azért, hogy jobb eredményeket nyújthassanak a keresőmotorok a használóiknak, a keresőmotoroknak biztosítaniuk kellett, hogy a keresési eremény oldalaik a legrelevánsabb keresési eredményelet mutassák, a keresésre nem vonatkozó oldalakat viszont ne, amik a gátlástalan webmesterek által tele lettek tömve számos kulcsszóval. Mióta egy keresőmotor sikerét és népszerűségét a bármilyen adott keresésre adott legrelevánsabb eredmények kiadásának képessége határozza meg, a gyenge minőségű és a nem a tárgyhoz tartozó keresési eredmények kiadása arra ösztönzi a használóit, hogy keressenek más keresési forrásokat. A keresőmotorok az összetettebb rangsorolási algoritmusok kifejlesztésével és a webmesterek számára nehezebben befolyásolható további tényezők figyelembe vételével reagáltak. A Stanford Egyetemen végzős hallgatói, Larry Page és Sergey Brin kifejlesztették a „Backrub”-ot, egy keresőmotort, ami egy matematikai algoritmust használt a honlapok rangsorolására. Az algoritmus által kiszámított szám, a PageRank („Page-rangsor”) a bejövő linkek mennyiségének és erősségének volt a függvénye. A PageRank felméri a valószínűségét, hogy egy adott oldalt megtalál-e egy internetes felhasználó, aki véletlenszerűen szörfözik a neten, és követi a linkeket egyik oldalról a másikra. Valójában ez azt jelenti, hogy bizonyos linkek erősebbek másoknál, ahogy egy magasabb PageRank-számú oldal esetén is valószínűbb, hogy egy véletlenszerű keresés során a felhazsnáló megtalálja.
Page és Brin alapította meg 1998-ban a Google-t. A Google hűséges követőkre talált az egyre nagyobb számú Internet felhasználók között, akik megkedvelték az egyszerű kivitelezését. Egy oldalon kívül eső tényezőket (mint a PageRank és a hiperhivatkozás-elemzés) és az oldalon belüli tényezőket is (mint a kulcsszavak gyakorisága, meta tag-ek, címsorok, linkek és az oldal szerkezete) figyelembe kellett venni annak érdekében, hogy a Google-t ne lehessen manipulálni, mint azokat a keresőmotorokat, amik csak az oldalon belüli tényezőket nézték a rangsorolásnál. Bár a PageRank-et már nehezebb volt így kijátszani, a webmesterek a linképítés eszközeivel befolyásolni tudták az Inktomi keresőmotort, és ezek az eljárások hasonlóképpen alkalmazhatónak bizonyultak a PageRank kijátszásában. Sok oldal a linkek megosztására, eladására és megvásárlására összpontosított, gyakran tömegesen. Rengeteg ilyen oldal, másképpen linkfarm, jött létre a link spammelés egyedüli céljából.
2004-re a keresőmotorok belefoglaltak rejtett faktorok széles körét a rangsorolási algoritmusaikba a link manipuláció hatásainak visszaszorítása céljából. 2007 júniusában Saul Hansell megállapította, hogy a Google az oldalak rangsorolása során több mint 200 különböző módszert használ. A vezető keresőmotorok, a Google, a Bing és a Yahoo nem fedi fel az általuk az oldalak rangsorolására használt algoritmusokat. Náhány SEO-s sokat tanulmányozta a különböző eljárásokat a keresőoptimalizáláshoz, és megosztották a saját eredményeiket. A keresőmotorokra vonatkozó szabadalmak is információt adhatnak a keresőmotorok jobb megértése érdekében.
2005-ben a Google elkezdte személyre szabni a keresési eredményeket minden egyes használó esetén. A korábbi keresések történetétől függően a Google személyre szabva alakította az eredményeket. 2008-ban Bruce Clay azt mondta, hogy „a rangsorolás halott” a személyre szabott keresés miatt. Úgy vélte, hogy értelmetlenné vált a honlap-rangsorolás módszereinek a fejtegetése, mert a rangsorok esetlegesen különbözőek lehetnek minden egyes felhasználó és minden egyes keresés esetén.
2007-ben a Google belekezdett egy kampányba a fizetett linkek ellen. 2009 június 15-én a Google közzétette, hogy lépéseket tettek a PageRank-felületszobrászat hatásainak visszaszorítása érdekében a nofollow attribútum (segítségével a webmesterek arra utasíthatják a robotokat, hogy „ne kövessék az oldalon lévő linkeket” vagy hogy „ne kövessenek egy bizonyos linket”) használatával a linkeken. Matt Cutts, a Google-nál dolgozó ismert szoftverfejlesztő bejelentette, hogy a Google Bot („Google Robot”) ezentúl nem ugyanúgy kezeli a nofollow linkeket annak érdekében, hogy megakadályozzák, hogy a SEO szolgáltatók a nofollow-t a PageRank felületszobrászatához használhassák. Ennek a változtatásnak az eredményeként a nofollow használata a PageRank eltűnéséhez vezetett. Annak érdekében, hogy a fenti esetet elkerüljék, a SEO mérnökök alternatív módszereket dolgoztak ki, hogy felváltsák a nofollowed tag-eket az összekevert Javascript-el. Emellett számos egyéb megoldásra javaslatot tettek, mint például a frame („keret”), a Flash és a Javascript használata.
2009 decemberében a Google bejelentette az összes felhasználó internetes keresési előzményének használatát a személyre szabott keresési eredmények céljából.
A Google Instant („Google Azonnal”), egy valósidejű-keresés 2010 végén lett bevezetve egy arra irányuló kísérletként, hogy a keresési eredményeket még időszerűbbé és relevánsabbá tegyék.
Korábban az oldal adminisztrátorai hónapokat töltöttek el egy honlap optimalizálásával a keresési rangsorban való előrébb jutás érdekében. A közösségi média oldalainak és a blogok népszerűségének növekededésével a vezető motorok megváltoztatták az algoritmusaikat, hogy a friss tartalmakat gyorsan rangsorolhassák a keresési eredményeikben.
2011 februárjában a Google bejelntette a Panda frissítését, ami megbünteti az olyan honlapokat, amelyeknek egy másik honlapról vagy egyéb forrásból másolt tartalma van. Korábban a honlapok tartalmakat másoltak egy másik honlapról, így a Google bevezette ezt az új rendszert, ami megbüntette a nem egyedi tartalmakból álló honlapokat.
2012 áprilisában a Google elindította a Google Penguin frissítést, melynek az volt a célja, hogy megbüntesse azokat a honlapokat, amik manipulatív technikákat használnak a keresőmotorban való rangsorolásuk javítása érdekébenn.
A kersőoptimalizálás és a keresőkkel való kapcsolat:
1997-re a keresőmotor fejlesztők felismerték, hogy a webmesterek nagy erőfeszítéseket tesznek annak érdekében, hogy jó helyen jelenjenek meg a keresőmotorjaikban, és, hogy néhány webmester manipulálja is a keresési eredményekben való rangsorukat azáltal, hogy teletömik az oldalakat mértéktelen mennyiségű és nem a tárgyhoz tartozó kulcsszavakkal. A korai keresőmotorok , mint az Altavista és az Infoseek, kiigazították az algoritmusaikat annak érdekében, hogy megakadályozzák a webmestereket a rangsor manipulálásában.
2005-ben egy éves konferencia, az AIRWeb (Adversarial Information Retrieval on the Web – „Kontradiktórius információk visszakeresése az interneten”) azért jött létre, hogy a SEO-sok és a keresőmotorok cégei megvitassák a keresőoptimalizálást és az ehhez kapcsolódó témákat.
A túlzottan agresszív módszereket alkalmazó cégek elérhették, hogy az ügyfeleik honlapját kitiltsák a keresési eredményekből. 2005-ben a Wall Street Journal beszámolt egy cégről, a Traffic Power-ről, ami állítólag magas kockázatú módszereket alkalmazott és azokat a kockázatokat elmulasztotta közölni az ügyfeleikkel. A Wired magazin beszámolt arról, hogy ugyanez a cég beperelte a blogger és SEO-s Aaron Wall-t az eltiltásról írt cikke miatt. A Google-nál dolgozó Matt Cutts később megerősítette, hogy a Google valóban kitiltotta a Traffic Power-t és néhány ügyfelüket is.
Néhány keresőmotor felajánlja a segítségét a SEO iparnak, és jelen van a SEO konferenciákon, beszélgetéseken és szemináriumokon. A legtöbb keresőmotor egy oldal optimalizálásához szükséges információkat és az optimalizálással kapcsolatos irányelveiket is biztosítja a felhasználóknak. A Google-nak Sitemaps („oldaltérképek”) programja is van a webmesterek számára, ha gondjuk akadna a honlapok indexelésével, valamint egyéb adatokkal is szolgálnak a Google forgalomról a honlaphoz. A Bing Webmaster Tools („webmester eszközök”) abban segít a webmestereknek, hogy javasol egy oldaltérképet és webes infókat, ezzel megengedve a felhasználóknak, hogy meghatározzák a feltérképezés gyakoriságát és, hogy nyomon kövessék a honalpok indexelési állapotát.
Indexelés a keresőoptimalizálásban:
A vezető keresőmotorok, mint a Google, a Bing és a Yahoo, keresőgépeket használnak az oldalak megtalálására a saját algoritmikus keresési eredményeik számára. Egy másik keresőmotor által indexelt oldalakból linkelt oldalakat nem szükséges ajánlani, ugyanis azokat automatikusan megtalálják. Néhány keresőmotor, különösen a Yahoo, fizetett szolgáltatást működtet, ami biztosítja a feltérképezést vagy egy előre meghatározott áron vagy pedig kattintásonkénti áron. Némelyik program általában garantálja az adatbázisba való bekerülést, de nem garantálja a keresési eredményekben való egyedi rangsorolást. A két legfőbb linkgyűjtemény, a Yahoo Directory és az Open Directory Project, megköveteli a kézi beküldést és az emberi szerkesztői felülvizsgálatot. A Google a Google Webmaster Tools-t kínálja, amire egy XML oldaltérkép feed-et lehet csinálni és javasolni ingyen, hogy biztosítva legyen minden aloldal megtalálhatósága, különösen azon oldalak esetében, amik nincsenek automatikusan felfedezve a following linkek által.
A keresőmotor keresőgépe számos tényezőt figyelembe vehet egy webhely feltérképezésekor. Nem mindegyik oldalt indexelik a keresőmotorok. Egy webhely oldalainak a főlaptól való távolsága is egy tényező lehet, hogy feltérképezik-e az oldalakat.
A feltérképezés megakadályozása a keresőoptimalizálásban:
A keresési indexekben való nem kívánatos tartalom esetén a webmesterek utasíthatják az indexelőprogramot, hogy ne térképezzenek fel bizonyos fájlokat vagy könyvtárakat a domain gyökérkönyvtárában lévő robots.txt fájlon keresztül. Továbbá egy oldal határozottan ki lehet zárva egy keresőmotor adatbázisából a robotokra jellemző meta tag használatával. Amikor egy keresőmotor meglátogat egy oldalt, a gyökérkönyvtárban elhelyezett robots.txt az első fájl, amit feltérképez. A robots.txt fájlt azután elemzi és a fájl utasítja a robotot, hogy mely oldalakat ne térképezze fel. A feltérképezni nem kívánt oldalak között lehetnek speciális belépési oldalak, mint például a kosár és a felhasználó specifikus tartalom, mint a a belső keresésekből származó keresési eredmények. 2007 márciusában a Google figyelmeztette a webmestereket, hogy meg kellene akadályozniuk a belső keresési eredmények indexelését, mert azokat az oldalakat keresési spam-eknek nyilvánítják.
A látogatottság növelése keresőoptimalizálással:
Egy weblap keresési eredményekben való helyzetét számos módszerrel lehet javítani. Ugyanazon weblap oldalai közötti keresztlinkeléssel javítani lehet a helyezést. A gyakran keresett kulcsszavas kifejezéseket tartalmazó tartalmak írása, valamint azok relevanciája számos keresési lekérdezéshez a látogatottság növelését eredményezi. A tartalom frissítése is annak érdekében, hogy a keresőmotorok gyakran feltérképezzék az oldalt, ezt eredményezi. A weblap meta adataihoz hozzáadott releváns kulcsszavak, beleértve a cím tag-et és a meta leírást, általában a webhely keresési lista pontosságának javítására szolgál, így megnövelve a látogatottságot. A weblapok URL normalizálása az elérhetőség kedvéért több URL-en keresztül vagy a 301 átirányításokon keresztül segíthet a linkek biztossát tételében, és beleszámít az oldal linkjének népszerűségi pontszámába
Tisztességes és tisztességtelen módszerek a keresőoptimalizálásban:
A SEO módszereket két általános osztályba lehet sorolni: azok a módszerek, amiket a keresőmotorok javasolnak a jó optimalizálás részeként, és azok a módszerek, amiket a keresőmotorok nem helyeselnek. A keresőmotorok megkísérlik minimalizálni az utóbbi módszerek, mint például az indexelés befolyásolása, hatását. A hozzáértők osztályozták ezeket a módszereket és a gyakorlókat, akik alkalmazzák azokat, akár tisztességes SEO-ról, akár tisztességtelen SEO-ról van szó. A tisztességes SEO igyekszik hosszútávú eredményeket elérni, míg a tisztességtelenek előre tudják, hogy az oldalaikat le fogják tiltani vagy időlegesen vagy véglegesen, amikor a keresőmotorok felfedezik, hogy mit csinálnak.
Egy SEO módszer tisztességesnek tekinthető, ha megfelel a keresőmotorok vezérelveinek és nem tartalmaznak megtévesztő elemet. Fontos megjegyezni, hogy a keresőmotorok irányelveit nem szabályok vagy parancsok soraként kell értelmezni. A tisztességes SEO nem kizárólag az irányelvek követését jelenti, hanem annak a biztosítását, hogy, amely tartalmat egy keresőmotor indexel és később rangsorolja, az ugyanaz a tartalom, amit egy felhasználó látni fog. A tisztességes SEO-ra irányuló tanácsot össze lehet foglalni általánosságban annyiban, hogy a felhasználóknak készítsük a tartalmat, ne a keresőmotoroknak, és utána ezt a tartalmat tegyük elérhetővé a keresőgépeknek, inkább mint, hogy megkíséreljük becsapni az algoritmusokat.
A tisztességtelen SEO igyekszik a rangsorolást javítani a keresőmotorok által helytelenített módszerekkel, vagy valamilyen megtévesztő elemet tartalmaz. Az egyik tisztességtelen módszer rejtett szövegeket használ, vagy a háttérhez hasonló színű szövegként egy láthatatlan div-ben vagy a képernyőn kívül elhelyezve. Egy másik eljárás egy másik oldalt ad meg attól függően, hogy az oldalt egy emberi látogató vagy egy keresőmotor kéri, ezt nevezik cloaking-nak („takarás”).
A keresőmotorok megbüntethetik azokat az oldalakat, amik tisztességtelen módszereket használnak, akár a rangsorban való hátrébb sorolással, akár a listából és ezzel együtt az adatbázisból történő kizárással. Ezeket a büntetéseket automatikusan a keresőmotorok algoritmusai is végrehajthatják, vagy egy kézzel történő felülvizsgálat során is elvégezhetőek. Egy ilyen példa 2006 februárban történt, amikor a Google eltávolította a BMW Németország és a Ricoh Németország oldalait is a megtévesztő módszerek gyakorlása miatt. Mindkét vállalat, miután gyorsan elnézést kért, az érintett oldalakat átírta és helyreállították a Google listájában.
A kersőoptimalizálás mint marketing stratégia:
A SEO nem mindegyik weblaphoz megfelelő stratégia, és más internetes marketing stratégiák célravezetőbbek lehetnek, mint például a fizetett hirdetések a webhely-üzemeltető céljaitól függően. Egy sikeres internetes marketing kampány függhet a magas minőségű weblapok készítésétől vagy az analitikus programok használatától az áttekintési ráta növelése érdekében.
A SEO megfelelő profitnövekedést eredményezhet. Bár a keresőmotoroknak nem fizetnek az organikus keresési forgalomért, az algoritmusaik változnak és nincs semmi garancia a folyamatos eredményért. A garancia és a biztosság hiányának a következtében a keresőmotor forgalmára erősen támaszkodó üzlet jelentős veszteségeket könyvelhet el, amennyiben a keresőmotorok nem küldenek több látogatót. A keresőmotorok megváltoztathatják az algoritmusaikat, ezzel befolyásolva a weblap helyzetét, valószínűleg a forgalom súlyos csökkenését okozva. A Google vezérigazgatója, Eric Schmidt állítása szerint a Google 2010-ben több mint 500 algoritmusban alkalmazott változtatásokat – majdnem 1,5-et naponta. Széles üzleti gyakorlatnak tekinthető a weblapok kezelői körében, hogy felszabadítják magukat a keresőmotor-forgalomtól való függésük alól.
A keresőoptimalizálás nemzetközi piacai:
Az optimalizálási módszerek a vezető keresőmotorokra vannak hangolva a célpiacon. A keresőmotorok piaci részesedései piaconként változnak, akárcsak a verseny. 2003-ban Danny Sullivan kijelenntette, hogy a Google az összes keresés 75%-át végzi. Az Egyesült Államokon kívüli piacokon a Google részesedése gyakran nagyobb, és a Google lett a vezető keresőmotor világszerte 2007-re. 2006-ra a Google piaci részesedése Németországban 85-90% volt. Amíg Amerikában több száz SEO-val foglalkozó cég volt ebben az időben, addig Németországban csak öt. 2008 júniusára a Google piaci részesedése Nagy-Britanniában majdnem 90% volt a Hitwise szerint. Ezt a piaci részesedést érték el számos országban.
2009-re már csak néhány nagy piac maradt, ahol nem a Google volt a vezető keresőmotor. A legtöbb esetben, amikor nem a Google a vezető keresőmotor egy adott piacon, egy helyi kereső mögé kényszerült. A legjelentősebb példák Kína, Japán, Dél-Korea, Oroszország és Csehország, ahol a Baidu, a Yahoo! Japan, a Naver, a Yandex és a Seznam a piacvezető.
A sikeres optimalizációhoz a nemzetközi piacokon szükség lehet a weblapok szakfordítására, a domain név regisztrációjára, és web hosting-ra (a kiválasztott csomagnak megfelelő méretű szabadon felhasználható tárhelyet kapunk egy a világhálóra kötött szerveren), ami egy weblap IP címét biztosítja. Máskülönben az optimalizálás alapvető elemei lényegében ugyanazok a nyelvtől függetlenül.
Jogi irányadó esetek a keresőoptimalizálálásban:
2002 október 17-én a SearchKing pert indított az Egyesült Államokban a Google keresőmotor ellen. A SearchKing azt állította, hogy a Google szándékosan úgy hangolta a PageRankalgoritmusukat, hogy az hátrébb rangsorolja a weboldalukat, mint azt kellene. 2003 május 27-én a bíróság helyt adott a Google indítványának a panasz elutasításáról.
2006 márciusban a KinderStart is pert indított a Google ellen a keresőmotor rangsorolása miatt. A KinderStart weblapját eltávolította a Google indexe a per előtt és az oldal látogatottsága 70%-kal csökkent. 2007 március 16-án a bíróság elutasította a KinderStart keresetlevelét, és részben helyt adott a Google indítványának.