Поисковые алгоритмы – это сложные математические модели, которые путем учета и оценки череды факторов присваивают страницам веб-сайтов определенный рейтинг, от которого зависит их положение в результатах поиска.

Алгоритмы поисковых систем позволяют формировать наиболее релевантные поисковым запросам выдачи.

Они постоянно совершенствуются и сменяются более эффективными. Обычно новые алгоритмы являются ответной реакцией поисковиков на появление ранее неизвестных нелегальных способов продвижения веб-сайтов, с которыми они всегда стараются бороться.

Также к алгоритмам поисковых систем относятся фильтры, которые не просто влияют на ранжирование сайтов, а целенаправленно ищут несоответствие определенным условиям (неуникальный контент, заспамленность ключевыми словами, покупные внешние ссылки низкого качества) и занижают их позиции или вовсе исключают из индекса.

Больше всего проблем вебмастерам доставляют Panda и Penguin от Google, а также Минусинск и АГС от Яндекса.