آگهی
article

نحوه استفاده از فایل robots.txt در سایت

web-seo-robots-txt

از زمان شکل گیری ابزار ارتباطی نوین به نام اینترنت یا شبکه جهانی، قوانین و قواعدی نیز به همراه آن وضع شد که در بحث بهینه سازی سایت یا سئو (Search Engine Optimization) واضعان آن قواعد و قوانین، عمدتا موتورهای جستجوگر معروفی چون گوگل (google)، بینگ (bing)، یاهو (yahoo) و... بوده اند، بدین ترتیب با هم اندیشی توسعه دهنده گان وب و مهندسین این شرکت ها، به تدریج استانداردها و قواعدی برای مدیران سایت ها تدوین شد که یکی از این قواعد، کنترل رفتار ربات های خزنده (bots) موتورهای جستجو به وسلیه ایجاد و تنظیم فایلی به نام robots.txt در ریشه سایت است؛ بدین وسیله می توان تا حدودی رفتار ربات ها را در نحوه جستجو و ایندکس صفحات مدیریت کرد، در ادامه به چگونگی انجام این کار و همچنین بایدها و نبایدهای استفاده از این امکان اشاره خواهیم کرد.

فایل robots.txt چیست؟


فایل robots.txt یک فایل متنی ساده است که می توان آن را با هر ویرایشگری ایجاد و با فرمت txt ذخیره نمود، این فایل در ریشه سایت قرار می گیرد (یعنی به طور مستقیم در فولدر wwwroot یا همان public_html و در بالاترین سطح) به طوری که اگر بعد از آدرس سایت، عبارت robots.txt را تایپ کنیم، این فایل در دسترس باشد:
http://www.example.com/robots.txt
از فایل robots.txt برای مواردی استفاده می شود که نمی خواهیم صفحاتی از سایتمان توسط موتورهای جستجو (ربات های خزنده) بررسی و ایندکس شود، یا ممکن است قبلا این کار صورت گرفته باشد و اکنون می خواهیم آن صفحات را به هر دلیل حذف کنیم، البته استفاده از فایل robots.txt برای حذف لینک ها از نتایج موتورهای جستجو، تنها یک پیش شرط است (شرط لازم است نه کافی!) و برای تکمیل کار، شاید ناچار باشید به ابزار وبمستر سایت هایی مثل گوگل در آدرس:
https://www.google.com/webmasters/tools
و بینگ در آدرس:
http://www.bing.com/toolbox/webmaster
مراجعه کنید.
با این تفاسیر استفاده از این فایل همیشه هم ضروری نیست و همانطور که گفتیم، در موارد مسدود کردن دسترسی ربات ها به صفحات خاص (لینک های خاص) کاربرد دارد، اما به دلیل اینکه اکثر ربات های جستجوگر همواره این فایل را از سرور شما درخواست می کنند، بهتر است برای اجتناب از افزایش خطاهای 404 که در بخش log ها و آمار سایت جلوه خوبی ندارند، حتی شده یک فایل خالی با این نام در ریشه سایت خود قرار دهید.

نحوه تنظیم فایل robots.txt


یک فایل robots.txt معمولا از دو قانون ساده پیروی می کند، User-agent یا واسط کاربری (نوع خزنده یا ربات) و Disallow یا لینکی که دسترسی به آن را مسدود (یا مجاز) می کنیم؛ علاوه بر این، به یاد داشته باشید که در ابتدای آدرس دایرکتوری ها، باید از یک اسلش (/) نیز استفاده شود و در استفاده از حروف بزرگ یا کوچک نیز دقت کنید (به فرض دایرکتوری Image در مقایسه با image از دید ربات ها، معمولا دو آدرس متفاوت هستند).
به طور مثال اگر در فایل خود کد زیر را قرار دهیم:
User-agent: *
Disallow: /image/
ربات ها با پیروی از این قانون، دیگر محتوای فولدر image را بررسی نکرده و در نتایج جستجو آن را نمایش نمی دهند، هنگامی که از علامت * برای واسط کاربری استفاده می کنیم، در واقع منظور ما تمام ربات ها هستند، البته ذکر این نکته لازم است که تنها خزنده های برخی سایت ها و شرکت های معروف و معتبر به این قوانین احترام می گذارند و در مقابل برخی حتی برای ارسال اسپم یا نفوذ به صفحات حساس سایت ها، از این فایل، سوء استفاده نیز می کنند، لذا این نکته دارای اهمیت زیادی است که هیچ گاه برای محافظت از دایرکتوری های حساس، مانند دایرکتوری مدیریت سایت، به این فایل بسنده نکنید (بلکه یک سیستم ورود و خروج مطمئن برای آن در نظر بگیرید) و بهتر است آدرس دایرکتوری مدیریت را نیز در آن قرار ندهید، بهترین روش برای جلوگیری از ایندکس شدن دایرکتوری های حساس، این است که هیچ لینک خروجی و در معرض دید و دسترس ربات در صفحات خود نداشته باشید و از طرف دیگر دسترسی به محتوای این نوع صفحات را با ایجاد سیستم دریافت نام کاربری و کلمه عبور، محدود کنید.

چند مثال از نحوه استفاده از فایل robots.txt


برای آشنایی بیشتر و کاربردی تر، در زیر چند مثال با تنظیمات متفاوت را آورده ایم.
استفاده از فایل robots.txt و مسدود کردن یک فولدر برای تمام ربات ها:
User-agent: *
Disallow: /old-posts/
استفاده از فایل robots.txt و مسدود کردن یک فایل برای تمام ربات ها:
User-agent: *
Disallow: /old-posts/mypic.jpg
استفاده از فایل robots.txt و مسدود کردن یک فایل در ریشه سایت برای تمام ربات ها:
User-agent: *
Disallow: /private.html
استفاده از فایل robots.txt و مسدود کردن یک فولدر برای یک ربات خاص:
User-agent: Googlebot
Disallow: /personal/
برای دیدن لیست کامل واسط های کاربری (User-agent) می توانید به دیتابیس موجود در آدرس زیر مراجعه کنید:
http://www.robotstxt.org/db
مسدود بودن تمام صفحات برای تمام ربات ها:
User-agent: *
Disallow: /
مجاز بودن تمام صفحات برای تمام ربات ها:
User-agent: *
Allow: /

تنظیم فایل robots.txt با استفاده از الگو یا Pattern


علاوه بر ایجاد تنظیمات معمولی، برخی ربات ها (از جمله ربات گوگل) از قوانین پیچیده تری نیز پشتیبانی می کنند، این قوانین بی شباهت به عبارات با قاعده یا Regular Expressions نیستند، با این تفاوت که در اینجا فقط از چند علامت خاص (* ? $) استفاده می شود.
- برای تطبیق توالی از عبارات، از علامت * استفاده می شود، به طور مثال اگر ما چند دایرکتوری داشته باشیم که با عبارت فرضی book شروع شده باشند و بخواهیم با یک دستور، دسترسی ربات را به تمام آنها مسدود کنیم، خواهیم نوشت:
User-agent: Googlebot
Disallow: /book*/
به این ترتیب فولدرهای فرضی booksell، bookread، bookiran و... برای ربات مسدود خواهند شد، لذا همان طور که ملاحظه می کنید، نقش علامت * این است که در واقع عبارات بعد از آن در تطبیق نادیده گرفته می شوند.
- برای مسدود کردن لینک های داینامیک از علامت ? و * استفاده می کنیم، به فرض دستور زیر تمام لینک های داینامیک را برای ربات غیر قابل دسترس می کند:
User-agent: *
Disallow: /*?
همچنین می توان برای ساب دایرکتوری ها (دایرکتوری های زیر مجموعه) نیز این قابلیت را ایجاد کرد و از این نظر هیچ محدودیتی نیست:
User-agent: *
Disallow: /articles/*?
- برای مشخص کردن دقیق انتهای یک الگو، از علامت $ استفاده می شود، به فرض اگر قصد ما مسدود کردن تمام فایل های با پسوند png برای ربات باشد، خواهیم نوشت:
User-agent: * 
Disallow: /*.png$
به این ترتیب، تمام فایل هایی که به پسوند png ختم شده باشند، برای ربات مسدود می شوند.

استفاده ترکیبی از قوانین در فایل robots.txt


تنظیمات فایل robots.txt به موارد گفته شده محدود نمی شود، شما می توانید برای یک واسط کاربری، چندین و چند آدرس یا دایرکتوری مجاز یا غیر مجاز تعریف کنید، یا با قوانین پیچیده، دستورات پیچیده تری ایجاد نمائید، به فرض در برخی سایت ها ممکن است مقادیر id سشن (session یا نشست) به عنوان بخشی از آدرس صفحه به صورت رندوم در لینک ها قرار داده شود (این موضوع یک اشکال در سئو محسوب شده زیرا موجب بروز مطالب تکراری با لینک های متفاوت می گردد) و در مقابل برخی آدرس ها نیز علامت ? را به طور طبیعی داشته باشند، در اینگونه موارد اگر بخواهیم به ربات بگوییم که به عبارات بعد از علامت ? در لینک های دارای سشن id توجه نکند، ولی لینک هایی را که به علامت ? (بدون وجود کاراکتری بعد از علامت ?) ختم می شوند، ایندکس کند، در یک فایل robots.txt خواهیم نوشت:
User-agent: *
Allow: /*?$
Disallow: /*?
به این ترتیب قانون اول اجازه ایندکس تمام آدرس هایی را که نهایتا به علامت ? ختم می شوند می دهد (علامت $ نشان دهنده پایان یک الگو است)، اما قانون دوم باعث نادیده گرفتن سشن id در لینک های داینامیک سایت می شود (در واقع وقتی از علامت $ در انتهای الگو استفاده نمی شود، یعنی هر عبارتی بعد از علامت ? بیاید، شامل آن الگو می شود).  
یا به فرض اگر بخواهیم چند لینک مختلف را در یک دستور مسدود کنیم، خواهیم نوشت:
User-agent: *
Disallow: /articles/22.html
Disallow: /articles/23.html
Disallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وب

افزودن نقشه سایت به فایل robots.txt


علاوه بر مجاز و مسدود کردن لینک ها، دایرکتوری ها و فایل ها، فایل robots.txt یک قابلیت دیگر نیز دارد، از طریق این فایل می توانید نقشه xml سایت خود را به تمام ربات های خزنده معرفی کنید، برای انجام این کار کافی است با یک فاصله، آدرس کامل نقشه سایت خود را وارد نمائید، به فرض:
User-agent: *
Disallow: /articles/22.html
Disallow: /articles/23.html
Disallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وب

Sitemap: https://webgoo.ir/sitemap.xml

سایر روش های مسدود سازی لینک ها برای ربات جستجوگر


در پایان این مطلب، بد نیست اشاره ای نیز داشته باشیم به سایر روش های مسدود سازی لینک ها و صفحات، بر روی ربات های جستجوگر، علاوه بر استفاده از فایل robots.txt جهت کنترل رفتار خزنده های با اصل و نسب وب، دو روش دیگر نیز برای این کار وجود دارد، روش اول استفاده از متاتگ noindex است که در قسمت head صفحه قرار می گیرد، به فرض:
<meta name="robots" content="noindex" />
یا
<meta name="googlebot" content="noindex" />
روش دوم نیز ارسال یک سربرگ HTTP برای ربات ها در هنگامی که صفحه را درخواست می کنند است، انجام این کار در php با استفاده از توابع header و به شکل زیر صورت می گیرد:
header("X-Robots-Tag: noindex", true);
یا
header("X-Robots-Tag: noindex, nofollow", true);
sectionدسته بندی: مهارتهای وب » بهینه سازی
related مطالب بیشتر:
» مشکلات رایج در کدنویسی معتبر و رفع آنها
» چگونه سایت یا وبلاگ را برای موتورهای جستجو بهینه سازی کنیم؟
» پیج رنک چیست و چگونه می توان آن را افزایش داد؟
» چرا برخی سایت ها و وبلاگ ها رتبه الکسای بهتری دارند؟
» نحوه دوباره نویسی لینک (URL Rewrite) در htaccess
commentنظرات (۸۴ یادداشت برای این مطلب ارسال شده است)
more یادداشت های جدید بر اساس تاریخ ارسال در انتهای یادداشت های موجود نمایش داده می شوند.
نویسنده: جواد اسی
زمان: ۱۹:۵۴:۱۰ - تاریخ: ۱۳۹۳/۰۷/۲۰
با سلام میخواستم ببینم دستور زیر چیه و چطور میشه بدستش اورد با سپاس
<meta content="233f17f59a22538a2a56d49cdc4641bf" name="propeller">
پاسخ: 
سلام
تا آنجا که اطلاع داریم چنین متاتگی مربوط به موارد استاندارد HTML نیست و متاتگی خودساخته است که می تواند به دلایل و روش های مختلف (به طور مثال برای بررسی هویت کاربران یا Verification) تعریف شده باشد!
نویسنده: بهنام
زمان: ۱۳:۲۵:۳۸ - تاریخ: ۱۳۹۳/۰۷/۳۰
با سلام
همانطور که میدونید تو اغلب سایت های ایرانی ما با دو فایل index.php و index.html مواجه هستیم حالا سوال من اینه اگه من این دو صفحه رو با روبوتکست disallow کنم ایا سایت من دچار مشکل میشه تو ایندکس با وجود این مطلب که من همه سئو سایتم و روی index.php انجام دادم هدف من از بین بردن صفحات کپی هستش این کار باعث چه ضرراتی میشه؟
پاسخ: 
سلام
هرچند دقیق متوجه سوالتان نشدیم:
- استفاده از index.php و index.html یک قانون فراگیر است و صرفا به سایت های ایرانی مربوط نمی شود!
- در فایل robots.txt می توان این فایل ها را مسدود کرد بدون اینکه ریشه اصلی سایت مسدود شود، برای این کار باید دستوری شبیه به کد زیر داشته باشید:
User-agent: *
Allow: /
Disallow: /index.php$
Disallow: /index.html$
این کار باعث ضرر خاصی نمی شود، منتها بهترین حالت در سئو استفاده از ریدایرکت 301 است.
نویسنده: pezhman11
زمان: ۲۲:۴۸:۲۰ - تاریخ: ۱۳۹۳/۰۸/۰۶
header("X-Robots-Tag: noindex, nofollow", true);
من این قسمت رو نفهمیدم میشه بیشتر توضیح بدید؟
ممنونم از سایت خوبتون
پاسخ: 
X-Robots-Tag یک سربرگ از نوع HTTP است که کارکردی شبیه به متاتگ یا فایل robots.txt دارد، منتها در اینجا می توان کنترل بیشتری روی رفتار ربات ها داشت، به طور مثال فرمت فایلی را بررسی و مطابق با نیاز یک مقدار برای پارامتر X-Robots-Tag تنظیم کرد و به واسط کاربری (User-agent) که در اینجا همان ربات گوگل است فرستاد، تنظیم یک سربرگ HTTP هم از طریق PHP و با تابع header و هم از طریق htaccess ممکن است که در زیر چند مثال را ذکر می کنیم:
header("X-Robots-Tag: noindex", true);
نمونه دستور htaccess:
<FilesMatch ".(doc|pdf)$">
Header set X-Robots-Tag "index, noarchive"
</FilesMatch>
نویسنده: شبکه اجتماعی
زمان: ۱۵:۲۷:۱۱ - تاریخ: ۱۳۹۴/۰۲/۱۵
سلام
مطالبتون خیلی فوق العاده است
در مورد این فایل robots باید بگم که دیگه کلافم کرده
هر روز از گوگل پیام مشکل دار بودن سایت دریافت میکنم.
فکر کنم تو گوگل وبمستر سایت رو ثبت نکنیم بهتره
خسته نباشید.
پاسخ: 
سلام
هرچند برخی اشکالات گوگل جنبه یادآوری دارد و موارد مهمی نیست، اما برخی نیز از نظر سئو اهمیت دارند که باید جدی گرفته و رفع شوند.
نویسنده: عابدینی
زمان: ۱۱:۰۱:۱۹ - تاریخ: ۱۳۹۴/۰۲/۲۹
مرسی
نویسنده: هادی
زمان: ۰۲:۰۸:۰۷ - تاریخ: ۱۳۹۴/۰۵/۱۰
سلام کدای robots.txt من اینه:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Sitemap: http://persianteb.com/sitemap_index.xml
حالا گوگل یه همچین اروری داده
Googlebot can't access CSS and JS files
باید چه تغییری توو این فایل ایجاد بشه؟
پاسخ: 
سلام
دستورات زیر را به فایل robots.txt اضافه کنید، پس از مدتی مشکل (به احتمال زیاد) رفع خواهد شد:
User-agent: Googlebot
Allow: *.css
Allow: *.js
نکته: می توانید با ابزارهای موجود در Google Webmasters Tools نیز وضعیت دریافت سایتتان توسط ربات گوگل را بررسی کنید.
نویسنده: reza
زمان: ۱۴:۱۸:۴۶ - تاریخ: ۱۳۹۴/۰۶/۰۴
سلام
من از سیستم مدیریت محتوای وردپرس استفاده میکننم یه سوال داشتم وقتی اسم سایتم و گوگل سرچ میکنم در قسمت عکسها عکسهایی از سایتم میاد که اصلا تو موضوعات استفاده نکردم مثلا لوگوی سایت یا آیکون های سایت فکر میکنم بخاطر همین فایل robot.txt باشه و حدس میزنم بخاطر همین گوگل تمام پوشه آپلود من یا همون رسانه رو ایندکس کرده به نظر شما من اگر دسترسی گوگل و قطع کنم برای سایر عکس ها مشکلی پیش نمیاد ؟؟
با توجه به اینکه سایت من کلا راجب عکسه و اگر مشکلی پیش بیاد خیلی ضربه میخوره .. ممنون میشم راهنمایی کنید
پاسخ: 
سلام
قاعدتا هر محتوایی که در دسترس ربات ها باشد و همچنین توسط فایل robots.txt مسدود نشده باشد، در ایندکس گوگل ثبت و نمایش داده می شود، اما مسدود سازی موارد نیز باید با دقت کامل انجام شود، اگر در این کار اشتباه کنید ممکن است دایرکتوری که نباید مسدود شود را به روی ربات گوگل ببندید، هرچند این موضوع برگشت پذیر است، اما به طور موقت برای سایتتان ایجاد مشکل می کند، در بحث مسدودسازی باید ببینید دایرکتوری مورد نظر محتوای دوگانه نداشته باشد، یعنی محتوایی نداشته باشد که اگر کل دایرکتوری مسدود شود، دسترسی به موارد زیرمجموعه ای آن هم ناخواسته مسدود شود، به طور مثال محتوایی نباید در زیر مجموعه آدرس فرضی زیر باشد:
yoursite.ir/your-dir/image/
اگر دایرکتوری فوق مسدود شود، تصویر زیر نیز مسدود می شود:
yoursite.ir/your-dir/image/pic.png
نویسنده: ayub
زمان: ۰۴:۲۶:۱۶ - تاریخ: ۱۳۹۴/۰۷/۱۹
ممنون از مطالب مفیدتون سایت خوبی دارید
نویسنده: sepideh
زمان: ۱۶:۲۳:۴۹ - تاریخ: ۱۳۹۴/۰۷/۳۰
سلام
میخواستم بدونم استفاده از دستور زیر درسته؟ و این دستور چه کاری انجام میده؟
باتشکر
<meta name="robots" content="noodp,noydir"/>
پاسخ: 
سلام
برای سایت های معمولی نیازی به استفاده از این متاتگ ها نیست؛
Noodp مخفف No Open Directory Project و Noydir مخفف No Yahoo Directory است، که به ربات ها تفهیم می کنند تا از اطلاعات موجود در دایرکتوری های فوق برای صفحه مذکور استفاده نکنند.
نویسنده: behzadmhk
زمان: ۱۷:۵۵:۳۲ - تاریخ: ۱۳۹۴/۰۸/۲۲
سلام ممنون از سایت خوب شما، من سایت شما را خوندم متوجه شدم که همه صفحات سایت بلاک شده ادرس سایت
http://tarazansofla.ir/
در هاست هم دنبال فایل robots.txt گشتم نبود چطور فایل ویرایش کنم تا از بلاک دربیاد؟ ممنون میشم راهنمایی کنید
پاسخ: 
سلام
سایت خود را در گوگل وبمستر ثبت کنید تا اطلاعات جامع تری از علت بلاک شدن احتمالی صفحات در اختیار داشته باشید، متاسفانه بدون بررسی دقیق پیام های گوگل، نمی توان گفت که الزاما مشکل از فایل robots.txt است یا خیر!
نویسنده: omid
زمان: ۱۲:۲۲:۳۸ - تاریخ: ۱۳۹۴/۰۸/۲۵
با سلام و تشکر از مطلب مفیدتون
ببخشید من هم اکنون مشکلی دارم که با خوندن این مقاله برطرف نشد:
مشکل اینه که من برای یکی از دامنه های سایتم پروتکل ssl تهیه کردم و این دامنه را به شکل کامل هم در webmaster tools ثبت کردم و sitemap هم برای آن تعریف کردم و دامنه های دیگر را نیز به این دامنه ریدایرکت کردم
ولی مشکل اینجاست که برای دامنه های دیگر این هاست که ssl هم ندارم، گوگل این دامنه ها را نیز به شکل https ایندکس کرده و چون پروتکل ssl برای این دامنه ها فعال نیست، کسی نمیتونه وارد سایت بشه.
برای رفع این مشکل که گوگل و موتورهای جستجوگر دیگر آدرس های دیگر سایت را به صورت https ایندکس نکنند باید چه دستوری را وارد کنم؟
با تشکر
پاسخ: 
سلام
دقیقا متوجه منظورتان نشدیم!! یعنی یک سایت اصلی دارید که چند دامنه برای آن وجود دارد؟! لطفا با درج آدرس سایت اصلی و دامنه های فرعی، دقیق تر مشکل را توضیح دهید تا امکان بررسی و راهنمایی وجود داشته باشد!
نویسنده: omid
زمان: ۲۰:۰۳:۴۸ - تاریخ: ۱۳۹۴/۰۸/۲۸
آدرس اصلی سایت:
https://www.mynewdownload.in
آدرس دامنه ای فرعی:
http://www.mynewdownload.com
ولی گوگل به اشتباه بعضی از لینک های سایت رو با آدرس https://www.mynewdownload.com ایندکس کرده که با توجه به اینکه پروتکل ssl بر روی این دامنه فعال نیست مرورگر ایراد میگیره و اگه کسی ندونه نمیتونه وارد سایت بشه
میخوام که دستوری رو در فایل robots.txt وارد کنم که از ایندکس شدن این قبیل لینک ها جلوگیری بشه (نمیخوام کل دامنه http://www.mynewdownload.com غیرفعال بشه فقط دامنه هایی که https://www.mynewdownload.com گوگل شناخته) ممنون میشم راهنماییم کنید
پاسخ: 
در این مورد باید به چند نکته توجه کنید:
- مسدودسازی با فایل robots.txt معمولا بر اساس الگویی ثابت صورت می گیرد، به طور مثال کلیه لینک های مرتبط با یک فولدر مسدود می شوند، لذا درج تک تک لینک های ایندکس شده توسط گوگل، چنانچه الگوی مشخصی وجود نداشته باشد، خیلی متداول نیست.
- اینکه گوگل چرا لینک هایی از سایت شما را به صورت https ایندکس کرده به نظر به این مرتبط می شود که این لینک ها به نوعی واقعا در سایت شما وجود داشته (شاید به صورت ناخواسته در خروجی چاپ شده) و ربات گوگل آنها را پیدا کرده! به عبارتی اگرچه دامنه دو سایت شبه به هم است، اما پسوندها باعث می شوند که این دو، دو سایت کاملا مجزا از هم (از دید ربات ها) باشند و بعید است که گوگل به خودی خود تشخیص دهد که باید لینک های سایت دیگر نیز به صورت https باشد!
- دقت کنید اگر لینک های https واقعا وجود نداشته باشند و خطای 404 بدهند، بعد از مدتی خود به خود از لیست نتایج گوگل حذف می شوند و لذا در اینگونه موارد نیاز به انجام هیچ کار خاصی نیست! فقط باید دقت کنید که اینگونه لینک ها واقعا کد خطای 404 را برای ربات گوگل برگردانند!
نویسنده: مرتضی
زمان: ۲۲:۲۵:۵۳ - تاریخ: ۱۳۹۴/۱۱/۱۰
سلام
من یه وبلاگ دارم که rss و بجای سایتمپ گذاشتم
تو بخش robots-txt یه ارور داده مشکل چیه - عکسشو فرستادم
http://s6.picofile.com/file/8236200818/seghdfrgh.png
پاسخ: 
سلام
هرچند متن خطای دریافتی مشخص نیست، اما (احتمالا) برای وبلاگ ها باید آدرس URL کامل فایل یا صفحه Sitemap را وارد کنید، البته قاعدتا چنین فایل یا صفحه ای باید واقعا وجود داشته باشد!
نویسنده: مرتضی
زمان: ۱۲:۱۱:۲۹ - تاریخ: ۱۳۹۴/۱۱/۱۲
سایتمپ خود وبلاگه اینه، اونو خودش گذاشته
http://telegram-gap.blogsky.com/sitemap
صفحاتم دیگه ایندکس نمیشه، آیا به خاطر اینه؟
تو وبلاگ چجوری میشه این روبوت و ویراییش کرد؟
پاسخ: 
صرف این خطا نمی تواند دلیل ایندکس نشدن صفحات سایت شما شود، برای ویرایش فایل باید ببینید آیا سرویس وبلاگی امکانی در پنل مدیریت بدین منظور لحاظ کرده یا خیر، برای بررسی دقیق تر متن خطای موجود در ابزار گوگل وبمستر باید درج شود و البته امکان آزمایش خطا و تست نیز فراهم باشد!
نویسنده: مرتضی
زمان: ۱۹:۲۱:۵۲ - تاریخ: ۱۳۹۴/۱۱/۱۲
سلام بخش ربوت و درست کردم اینجوری شد
http://s6.picofile.com/file/8236500650/752547.png
فقط یه مشکل دارم مطلب میزارم نسخه قابل چاپ ایندکس میشه، چرا؟
http://s6.picofile.com/file/8236513268/455555555555555.png
پاسخ: 
سلام
آدرس وبلاگتان در گوگل جستجو شد و مشکلی وجود نداشت؟!
more لطفا پیش از ارسال یادداشت نکات زیر را مد نظر داشته باشید:
- مواردی که به کلی خارج از موضوع این مطلب هستند را در فرم منوی "تماس با ما" مطرح و پاسخ را از طریق ایمیل دریافت کنید.
- به سوالات کلی، مبهم، غیرضروری و مشکلاتی که تلاشی برای رفع آن نکرده باشید پاسخ خاصی داده نخواهد شد.
- کدها و اسکریپت های طولانی را ترجیحا در یک صفحه وب آنلاین قرار دهید تا امکان تست و بررسی وجود داشته باشد.
- تمام یادداشت ها بررسی و برای هر کاربر زمان مشخصی جهت پاسخگویی در نظر گرفته می شود، لذا از طرح سوالات متعدد در بازه زمانی کوتاه خودداری کنید.




6 × 4
 refresh
نکته:
با توجه به تاریخ نگارش آموزش های سایت و پیشرفت تکنولوژی های مرتبط با وب در سالیان اخیر، محتوای برخی از مطالب قدیمی ممکن است نیاز به ویرایش و به روزرسانی داشته باشد که این کار هم زمان با تهیه نسخه جدید «وبگو» به مرور در حال انجام است، لطفا در استفاده از مطالب سایت به این نکته دقت داشته و حتی المقدور از چند منبع مختلف استفاده نمائید.
آخرین دیدگاه ها
form مجید بیگلوئی
در:
با سلام میخوام فایل پیوست بسازم برای اسکریپت وبلاگ از کد زیر استفاده میکنم تا فایل را آپلود و اطلاعات را به دیتابیس ارسال...
۱۰:۰۲:۵۸ ۱۳۹۸/۱۲/۰۶

form پیمان نقی پور
در:
سلام میخواستم بدونم فیلتر نویسی بورس هم با همین زبان جاوا انجام میشه؟ چطور میشه شرطی تعیین کرد تا نتیجه فیلتر در هنگام...
۱۸:۲۱:۳۲ ۱۳۹۸/۱۲/۰۵

form mahdi
در:
سلام استاد ، css رو تسلط کامل دارم تا حدودیش هم به لطف شما و جاوا اسکریپت هم چند روزی میشه شروع کردم به آموزش...
۱۵:۴۸:۳۳ ۱۳۹۸/۱۲/۰۵

form amin
در:
با سلام آدرس مطالب سایت وبگو بعد از ای دی پست عنوان فارسی هست ولی زمانی که به سورس کد پست نگاه میکنیم قسمت فارسی...
۱۴:۵۹:۴۴ ۱۳۹۸/۱۲/۰۵

form mahdi
در:
سلام استاد ، لینک آموزش مقدماتی جاوا اسکریپت توی منوی بالایی خرابه ، به وظیفه شهروندیم عمل کردم :)
۱۵:۰۹:۰۰ ۱۳۹۸/۱۲/۰۴

form aseman
در:
با سلام . میخوام هر وقت توی تکس باکسم عدد 1 وارد شد در خروجی تگ p معادل حروفی یک رو بهم بده. مثلا:...
۱۴:۴۵:۲۹ ۱۳۹۸/۱۲/۰۴

form mahdi
در:
سلام استاد ، گذاشتمش توی این وبلاگ رمزش هم ******* هستش ، واقعیت فهمیدم که میشه درستش کرد ولی چجوریشو نفهمیدم :) خیلی ممنون...
۱۳:۲۰:۱۴ ۱۳۹۸/۱۲/۰۴

form mahdi
در:
سلام استاد، وبلاگ ندارم، اینا رو برای یادگیری و یه هدف دیگه دارم سوال میکنم، مطالب مرتبط رو پیدا کردم راهشو، فقط قسمت ارسال نظر...
۲۰:۱۵:۰۲ ۱۳۹۸/۱۲/۰۳

form نیما
در:
سلام. من میخوام با استفاده از یک input مقدار عددی رو از کاربر دریافت کنم و بعد از ضرب در عددی خاص که خودم تعیین...
۱۸:۰۷:۰۴ ۱۳۹۸/۱۲/۰۳

form وحید
در:
سلام وقت بخیر حدود شش ماه هست با فیلتر شکن کار میکنم به اسم Lightvpn. یک روز هست این خطا رو میده و...
۱۸:۰۰:۰۶ ۱۳۹۸/۱۲/۰۳

form mahdi
در:
سلام ، استاد شرمنده یه سوال دیگه هم داشتم مثل قبلی ، مطالب مرتبط که انتهای هر پست میاد رو چطوری با جاوا اسکریپت توی...
۲۳:۴۶:۲۳ ۱۳۹۸/۱۲/۰۲

form mahdi
در:
سلام استاد عزیز ، توی لوکس بلاگ میشه چیزی مثل پست های شاخص که توی وردپرس هست با جاوا اسکریپت درست کنیم که مثلا داخل...
۲۳:۱۴:۴۰ ۱۳۹۸/۱۲/۰۲

form mahdi
در:
سلام استاد ، بخش نظرات قالب لوکس بلاگ یعنی طرح کل صفحش رو چطوری دسترسی داشته باشیم که خودمون بتونیم طراحیش کنیم ؟ منظورم اینه...
۱۸:۱۱:۳۳ ۱۳۹۸/۱۲/۰۱

form علیرضا سهیلی
در:
سلام من وقتی میخوام شارژ بزنم این کد واسم میاد معنیش یعنی چی
۱۴:۳۳:۱۴ ۱۳۹۸/۱۲/۰۱

form mahdi
در:
سلام استاد ، فهمیدم چطوریه نیازی به پاسخ نیست، چقدرم ساده بود :) مرسی
۰۹:۴۸:۴۹ ۱۳۹۸/۱۱/۳۰
آگهی