Поисковые алгоритмы – это сложные математические модели, которые путем учета и оценки череды факторов присваивают страницам веб-сайтов определенный рейтинг, от которого зависит их положение в результатах поиска.
Алгоритмы поисковых систем позволяют формировать наиболее релевантные поисковым запросам выдачи.
Они постоянно совершенствуются и сменяются более эффективными. Обычно новые алгоритмы являются ответной реакцией поисковиков на появление ранее неизвестных нелегальных способов продвижения веб-сайтов, с которыми они всегда стараются бороться.
Также к алгоритмам поисковых систем относятся фильтры, которые не просто влияют на ранжирование сайтов, а целенаправленно ищут несоответствие определенным условиям (неуникальный контент, заспамленность ключевыми словами, покупные внешние ссылки низкого качества) и занижают их позиции или вовсе исключают из индекса.
Больше всего проблем вебмастерам доставляют Panda и Penguin от Google, а также Минусинск и АГС от Яндекса.