رهایی از سایت های اسپم

مشخصا گوگل یکی از موتورهای جستجوست که بیشتر کاربران از آن استفاده می کنند. اگر شما هم اخیر گذرتان به گوگل و دیگر سایتهای جستجو افتاده باشد حتما با تعدادی از سایتهای تبلیغاتی مواجه شده اید که در صفحات اول نتایج گوگل ظاهر می شوند و رتبه خوبی در رتبه بندی گوگل کسب کرده اند ولی هیچ کمکی به جستجوی شما نخواهند کرد چرا که هدف این سایتها گمراه کردن بازدید کننده برای نمایش تعدادی زیادی بنر تبلیغاتی برای کسب درآمد می باشد. در یک کلمه می توان چنین سایتهایی را اسپم خواند.

حال برای رهاشدن از شر چنین سایتهایی چند راه حل وجود دارد. یکی از این راه حلها اینست که شما از طریق این صفحه، سایت مورد نظر را به گوگل گزارش دهید تا پس از مدتی گوگل نسبت به حذف این سایتها اقدام کند. راه حل دیگری که سرعت بیشتری دارد اینست که از مرورگر فایرفاکس استفاده کرده و افزونه Optimaze Google را نصب و سایتهای اسپم را به آن اضافه کنید تا در نتایج جستجوی گوگل به شما نمایش داده نشوند.

چند لینک مفید:

اتحاد و همکاری برای نابودی سایت‌های اسپم و تبلیغاتی از نتایج جستجو

گزارش اسپم به گوگل

برای حذف سایت‌های اسپم و تبلیغاتی از نتایج گوگل،هم‌اکنون نیازمند یاری سبز شماییم!

دست به دست هم دهیم به نت, گوگل خود رو کنیم آباد

از شر سايت‌های اسپم خلاص شويد به همراه لیستی از سایتهای اسپم فارسی برای استفاده در افزونه Optimaze Google

پی نوشت: بعد از نصب افزونه Optimaze Google هنگام جستجو در گوگل در کنار نتایج جستجو کلمه Filter رو مشاهده خواهید کرد که اگه سایت مورد نظر اسپم وتبلیغاتی باشد به راحتی می توانید به لیست این افزونه اضافه کنید تا از این به بعد برای شما نشان داده نشود.

رباتها و بهینه سازی سایت برای موتور جستجو – قسمت دوم

همانطور که در این پست گفته شد، شما می توانید با استفاده از robots.txt دسترسی بخشی از سایت را برای موتورهای جستجو محدود کنید. هدف از انجام این کار اینست که صفحه ای را که ارزش پایینتری از نظر الگوریتم رتبه دهی دارد از دسترس رباتهای (خزنده های) موتور جستجو خارج کنید یا حتی ممکن است شما نخواهید صفحه ای در موتورهای جستجو ظاهر شود! اگر شما بخواهید دسترسی به یک صفحه خاص را محدود کنید ولی نخواهید نام آن فایل در robots.txt بیاید، می توانید از دو روش برای انجام این کار استفاده کنید: نخست اینکه یک فولدر ساخته و صفحه مورد نظر را در آن  فولدر قرار دهید؛ حال بجای استفاده از نام فایل می توانید دسترسی به فولدر را در robots.txt محدود سازید. دومین روش استفاده از برچسب متای ربات (robots metatag) هست. موتور جستجو به فایل robots.txt رفته و نام صفحه شما را نمی یابد، سپس ربات به صفحه مورد نظر مراجعه می کند ولی با  برچسب متای ربات مواجه می شود که دسترسی به صفحه توسط آن محدود شده، پس از آن صفحه چشم پوشی می کند.

شکل کلی برچسب متای ربات بصورت زیر می باشد:

<meta name=»robots» content=»robots-terms»>

بجای عبارت robots-terms می توانید از noindex, nofollow, all, index , follow استفاده کنید. البته بزرگی و یا کوچک بودن حروف مهم نیست.

مفهوم noindex : ‌صفحه جاری توسط موتورهای جستجو فهرست نمی شود.

<meta content=»noindex»>

مفهوم nofollow: پیوندهای صفحه جاری توسط رباتها رهگیری نمی شوند.

<meta content=»nofollow»>

توجه داشته باشید که برای حالتهای index, follow  یا  all لازم نیست حتما از برچسب متای ربات استفاده شود چرا که این حالت رفتار پیش فرض رباتها می باشد.

<meta content=»index, follow»>
<meta content=»all»>

مفهوم index : موتورهای جستجواین ‌صفحه را فهرست می کنند.

<meta content=»index»>

مفهوم follow: رباتها پیوندهای صفحه جاری را رهگیری می کنند.

<meta content=»follow»>

اگر برچسب متای ربات در صفحه ای نیامده باشد و یا ویژگی content مقدار و یا مفدار معتبری نداشته باشد، رباتها آنرا در حالت index, follow  و یا all در نظر می گیرند.

این مطلب برای شما مفید بود!؟ مشترک مهندیس شوید تا مطالب بعدی را از دست ندهید. برای اشتراک از طریق ایمیل به اینجا رفته و آدرس ایمیلتان را وارد کنید و یا در فیدخوانتان فید مهندیس را اضافه کنید. نمی دانید فید چیست اینجا کلیک کنید.

Vote on iDevCenter

موتور پاسخ به سوالات!

در چند سال گذشته از موتورهاي جستجو خيلي شنيديم  و اينكه  شركتهاي بزرگ مثل گوگل، ياهو و مايكروسافت بيشتر در اين زمينه تلاش مي كنند تا  از ديگري سبقت بگيرن. چندي پيش بود كه مايكروسافت موتور جستجوي جديد خود را با نام bing معرفي كرد تا در اين رقابت از ياهو و گوگل عقب نمونه. ولي اين دفعه ديگه نوبت ظهور يه موتور جستجوي جديد  نيست، اين دفعه يه سرويس جديد بايد معرفي مي شد كه تا الان كمتر كسي ازش شنيده يا استفاده كرده.

پاسخگويي به سوالات! البته اين فناوري قبلا هم وجود داشته ولي نه به اين شكل و شمايل و گستردگي پايگاه دانشي كه ميتونه به سوالات بيشتري جواب بده. اين استفان والفرام بود كه اين سرويس جديد رو معرفي كرد. خود والفرام ميگه كه يك موتور دانش محاسباتي هست ولي خيلي ها به اشتباه به والفرام به عنوان موتور جستجو نگاه ميكنن. چرا كه والفرام مثل موتورهاي جستجو سايتهاي مرتبط با كليدواژه حستجو رو نشون نميده بلكه با استفاده از پايگاه دانش خودش به كليدواژه(سوال) وارد شده پاسخ ميده.

والفرام به شما در رياضي، فيزيك، شيمي، زبان شناسي، كامپيوتر و وب، اجتماعي، اقتصادي، جغرافيا، نجوم و خيلي موضوعات ديگه كمك ميكنه، اينجا ميتونين موارد كامل و همچنين نمونه سوالهايي رو ببينين كه والفرام ميتونه به اونا جواب بده.

اگه نتيجه يه سوال رو در گوگل و والفرام باهم مقايسه كنيم به تفاوتهاي يك موتور جستجو با يك موتور پاسخگويي به سوالات پي مي بريم. موتورهاي جستجو چندصد هزار نتيجه براي جستجو ميدن ولي موتورهاي پاسخگويي مثل والفرام اگه بتونن جواب سوالتون رو ميدن و اگه نتونن ميگن كه اطلاعلات كافي ندارن. البته والفرام هر روز پايگاه دانش خودش رو به روز ميكنه و در حقيقت دايره معلوماتش رو زياد ميكنه، البته اين مطلب رو از پسوند آلفاي والفرام هم ميشه فهميد.
در آينده از والفرام  بيشتر خواهيم شنيد، شايد روزي برسه كه والفرام جاي موتورهاي جستجو رو بگيره

WolframAlpha