Cloaking (скрытие) - это технология, используемая (причем, довольно часто) при работе с поисковыми системами. Если изложить ее в двух словах, то принцип заключается в следующем - роботу поисковой машины показывается одна страница, а человеку, просматривающему сайт - другая. Зачем это делается? Кстати, вопреки распространенному мнению, так делают не только злостные спаммеры. Первая из причин очень проста - т.к. страница, показываемая роботу, не видна человеку, она не может быть украдена. А это очень серьезный вопрос. Если вы создали удачную страницу для привлечения посетителей на сайт посредством поисковых машин, то велика вероятность того, что завтра ваша страница будет скопирована и использована посторонними людьми для привлечения посетителей на ИХ сайт. А если и не скопирована, то использована вашими конкурентами для анализа поведения поисковика. Попросту говоря, люди ознакомятся с вашими производственными секретами. Скрывая же код страницы, вы получаете преимущество перед соперниками. Вторая причина для использования клоакинга несколько менее честна. Поскольку, повторюсь, индексируемую страницу не видит никто, кроме робота, она не нуждается в дизайне. А, значит, нет необходимости делать ее красивой, снабжать удобной навигацией и т.д. Достаточно просто сделать ее релевантной. Таким образом, у вас появляется еще одно преимущество - вам не надо забивать голову проблемами как сделать текст легко индексируемым, снабжать картинки alt-тегами, короче, делать страницу удобной для человека. Существует два способа клоакинга - по UserAgent и по IP. Клоакинг с использованием UserAgent Данный способ использует значение параметра UserAgent, передаваемое серверу при обращении к нему. Каждый из роботов имеет свое имя, и если документ с сервера запрашивается агентом, чье имя есть в списке, то ему выдается оптимизированная страница. Если имени агента нет в списке, то сервер (а, точнее, скрипт) считает, что на сайт зашел человек и показывает нормальную страницу. Вот, в принципе и весь принцип работы скрипта. Способ эффективен, но не очень надежен. Если используется самодельный броузер с ложным UserAgent, то ему будет показана оптимизированная страница. И наоборот, если поисковая система меняет имя робота (а это делается), то робот увидит реальную страницу сайта. При этом двойным просмотром сайта с разными UserAgent можно уличить владельца сайта в клоакинге, а это самая веская причина для выбрасывания сайта из базы данных поисковой машины. Клоакинг с использованием IP Более мощный метод заключается в определении IP посетителя и сравнении его со списком IP, принадлежащих роботам. Это, правда, требует наличия мощной базы данных, постоянно к тому же пополняемой, но зато IP невозможно подделать. Поэтому есть гарантия, что человек не сможет увидить реальную страницу. Большинство скриптов, осуществляющих клоакинг, работает именно по такому принципу. Как правило, они дорого стоят, в основном, из-за постоянного обновления базы данных по IP роботов. Когда Вам нужен клоакинг? Если Вам необходимо преуспеть, обогнав большое количество конкурентов на рынке, где действительно высоки ставки, то Вам действительно нужна эта технология. Не стоит заниматься клоакингом, если ваша задача - просто привлечь посетителей на сайт. Очень многие люди достигали гораздо большего, раскручивая свой сайт другими способами, помимо поисковиков. При этом также стоит учесть, что использование клоакинга требует очень много времени, так как необходимо постоянно следить за обновлениями базы, корректностью работы скрипта и пр.