kop
28.09.2007, 23:15
Технология AJAX стремительно ворвалась в типичный набор технологий формирования веб-страниц и сейчас приобретает еще большую популярность.
Впервые пользователи близко познакомились с AJAX в новой почте Google Maіl (Gmaіl) и были пораженные высокой интерактивностью Веб-страниц и их "легкостью" во время изменений. Фактически, по интерактивности такие страницы больше соизмеримы с локальными программами "офисного" класса, чем с традиционными HTML-страницами.
Я не буду сейчас вдаваться в детали технологии, отмечу коротко, что суть технологии следующая. Браузер, кроме статического HTML вместе со страницей подтягивает довольно хитрый JavaScrіpt код, который постоянно держит связь с сервером, получает нужные инструкции с сервера, и соответственно ним модифицирует код страницы (страница видоизменяется).
Кроме браузеров страницы сайта "пересматривают" и роботы поисковых систем. А для них обычно AJAX не значит ничего, и вместо AJAX-страниц они видят пустое место, или стартовый статический HMTL-код страницы.
Здесь и возникает определенная проблема. Вопреки всему удобству и эффектности сайт, выполненный на технологии AJAX может для поисковой системы быть пустым местом. Т.е. посетители на сайт с поисковиков идти не будут. А такую роскошь могут позволить далеко не все владельцы сайтов.
Когда я впервые познакомился с AJAX, моя мысль относительно технологии из-за приведенной выше причины была полностью отрицательной.
Тем не менее, при детальном рассмотрении становится понятно, что не все так плохо. Более того, использование AJAX для некоторых типов сайтов при определенных условиях может стать даже полезным с точки зрения позиционирования в поисковых системах.
Основная идея использования AJAX в таком случае следующая - технология должна использоваться для вторичных вспомогательных функций, назначение которых - помогать пользователю и обеспечивать удобный интерфейс.
Так, например, на интернет-форумах AJAX может использоваться для служебных страниц ответов на сообщение, налаживание опций та профиля пользователя, поиска, частных сообщений и т.п.. Такие страницы на современных форумах могут составлять больше половины общего количества страниц, тем не менее, не содержать ни одной полезной информации, и в результате приносить вред владельцу сайта. Ведь они препятствуют нормальной индексации сайта поисковой машиной, засоряют ее базу данных, в то же время содержательные страницы могут к поисковику и не попасть (из-за квоты допустимого количества страниц с сайта) или же надлежащим образом не ранжироваться (из-за "размывание" PageRank между страницами).
Кроме форумов, такие неинформативные сервисные страницы характерные для сайтов интернет-магазинов, некоторых каталожных систем и других сайтов с высокой степенью интерактивности.
Традиционным методом борьбы с таким "шумом" является формирования веб-мастерами файла robots.txt . Тем не менее, такой подход не всегда обеспечивает надлежащий результат в силу ограничений синтаксиса этого файла.
Кроме того, robots.txt никаким образом не защищает от "черных" роботов, цель которых не предоставление сервиса пользователям и поддержка поисковых систем, а сбор частных данных пользователя и спам сайтов. Они просто игнорируют этот файл. А именно сервисные страницы являются интереснейшими для таких роботов (страницы поиска и профиля пользователей для собирателей мейлов, страницы ответов - для спам-ботов).
Здесь и может пригодиться AJAX. Использование AJAX позволит избегнуть нежелательного доступа роботов к специальным страницам (фактически специальные страницы могут в принципе не существовать, а их функции будут обеспечиваться фрагментами AJAX кода).
Такой подход, с одной стороны является удобным для пользователя - избегаются лишние перегрузки страниц, улучшается оперативность работы с сайтом, а со второй - уменьшает опасную активность спам-роботов.
Итак, AJAX - не безнадежная технология для сайтов, которые ориентируются на трафик из поисковых систем, просто ею нужно пользоваться осторожно для решения отдельных специальных задач, направления которых не связаны с отображением основного контента сайта.
Украдено с Seo-Sng.com (http://Seo-Sng.com)
Впервые пользователи близко познакомились с AJAX в новой почте Google Maіl (Gmaіl) и были пораженные высокой интерактивностью Веб-страниц и их "легкостью" во время изменений. Фактически, по интерактивности такие страницы больше соизмеримы с локальными программами "офисного" класса, чем с традиционными HTML-страницами.
Я не буду сейчас вдаваться в детали технологии, отмечу коротко, что суть технологии следующая. Браузер, кроме статического HTML вместе со страницей подтягивает довольно хитрый JavaScrіpt код, который постоянно держит связь с сервером, получает нужные инструкции с сервера, и соответственно ним модифицирует код страницы (страница видоизменяется).
Кроме браузеров страницы сайта "пересматривают" и роботы поисковых систем. А для них обычно AJAX не значит ничего, и вместо AJAX-страниц они видят пустое место, или стартовый статический HMTL-код страницы.
Здесь и возникает определенная проблема. Вопреки всему удобству и эффектности сайт, выполненный на технологии AJAX может для поисковой системы быть пустым местом. Т.е. посетители на сайт с поисковиков идти не будут. А такую роскошь могут позволить далеко не все владельцы сайтов.
Когда я впервые познакомился с AJAX, моя мысль относительно технологии из-за приведенной выше причины была полностью отрицательной.
Тем не менее, при детальном рассмотрении становится понятно, что не все так плохо. Более того, использование AJAX для некоторых типов сайтов при определенных условиях может стать даже полезным с точки зрения позиционирования в поисковых системах.
Основная идея использования AJAX в таком случае следующая - технология должна использоваться для вторичных вспомогательных функций, назначение которых - помогать пользователю и обеспечивать удобный интерфейс.
Так, например, на интернет-форумах AJAX может использоваться для служебных страниц ответов на сообщение, налаживание опций та профиля пользователя, поиска, частных сообщений и т.п.. Такие страницы на современных форумах могут составлять больше половины общего количества страниц, тем не менее, не содержать ни одной полезной информации, и в результате приносить вред владельцу сайта. Ведь они препятствуют нормальной индексации сайта поисковой машиной, засоряют ее базу данных, в то же время содержательные страницы могут к поисковику и не попасть (из-за квоты допустимого количества страниц с сайта) или же надлежащим образом не ранжироваться (из-за "размывание" PageRank между страницами).
Кроме форумов, такие неинформативные сервисные страницы характерные для сайтов интернет-магазинов, некоторых каталожных систем и других сайтов с высокой степенью интерактивности.
Традиционным методом борьбы с таким "шумом" является формирования веб-мастерами файла robots.txt . Тем не менее, такой подход не всегда обеспечивает надлежащий результат в силу ограничений синтаксиса этого файла.
Кроме того, robots.txt никаким образом не защищает от "черных" роботов, цель которых не предоставление сервиса пользователям и поддержка поисковых систем, а сбор частных данных пользователя и спам сайтов. Они просто игнорируют этот файл. А именно сервисные страницы являются интереснейшими для таких роботов (страницы поиска и профиля пользователей для собирателей мейлов, страницы ответов - для спам-ботов).
Здесь и может пригодиться AJAX. Использование AJAX позволит избегнуть нежелательного доступа роботов к специальным страницам (фактически специальные страницы могут в принципе не существовать, а их функции будут обеспечиваться фрагментами AJAX кода).
Такой подход, с одной стороны является удобным для пользователя - избегаются лишние перегрузки страниц, улучшается оперативность работы с сайтом, а со второй - уменьшает опасную активность спам-роботов.
Итак, AJAX - не безнадежная технология для сайтов, которые ориентируются на трафик из поисковых систем, просто ею нужно пользоваться осторожно для решения отдельных специальных задач, направления которых не связаны с отображением основного контента сайта.
Украдено с Seo-Sng.com (http://Seo-Sng.com)