آگهی
article

نحوه استفاده از فایل robots.txt در سایت

web-seo-robots-txt

از زمان شکل گیری ابزار ارتباطی نوین به نام اینترنت یا شبکه جهانی، قوانین و قواعدی نیز به همراه آن وضع شد که در بحث بهینه سازی سایت یا سئو (Search Engine Optimization) واضعان آن قواعد و قوانین، عمدتا موتورهای جستجوگر معروفی چون گوگل (google)، بینگ (bing)، یاهو (yahoo) و... بوده اند، بدین ترتیب با هم اندیشی توسعه دهنده گان وب و مهندسین این شرکت ها، به تدریج استانداردها و قواعدی برای مدیران سایت ها تدوین شد که یکی از این قواعد، کنترل رفتار ربات های خزنده (bots) موتورهای جستجو به وسلیه ایجاد و تنظیم فایلی به نام robots.txt در ریشه سایت است؛ بدین وسیله می توان تا حدودی رفتار ربات ها را در نحوه جستجو و ایندکس صفحات مدیریت کرد، در ادامه به چگونگی انجام این کار و همچنین بایدها و نبایدهای استفاده از این امکان اشاره خواهیم کرد.

فایل robots.txt چیست؟


فایل robots.txt یک فایل متنی ساده است که می توان آن را با هر ویرایشگری ایجاد و با فرمت txt ذخیره نمود، این فایل در ریشه سایت قرار می گیرد (یعنی به طور مستقیم در فولدر wwwroot یا همان public_html و در بالاترین سطح) به طوری که اگر بعد از آدرس سایت، عبارت robots.txt را تایپ کنیم، این فایل در دسترس باشد:
http://www.example.com/robots.txt
از فایل robots.txt برای مواردی استفاده می شود که نمی خواهیم صفحاتی از سایتمان توسط موتورهای جستجو (ربات های خزنده) بررسی و ایندکس شود، یا ممکن است قبلا این کار صورت گرفته باشد و اکنون می خواهیم آن صفحات را به هر دلیل حذف کنیم، البته استفاده از فایل robots.txt برای حذف لینک ها از نتایج موتورهای جستجو، تنها یک پیش شرط است (شرط لازم است نه کافی!) و برای تکمیل کار، شاید ناچار باشید به ابزار وبمستر سایت هایی مثل گوگل در آدرس:
https://www.google.com/webmasters/tools
و بینگ در آدرس:
http://www.bing.com/toolbox/webmaster
مراجعه کنید.
با این تفاسیر استفاده از این فایل همیشه هم ضروری نیست و همانطور که گفتیم، در موارد مسدود کردن دسترسی ربات ها به صفحات خاص (لینک های خاص) کاربرد دارد، اما به دلیل اینکه اکثر ربات های جستجوگر همواره این فایل را از سرور شما درخواست می کنند، بهتر است برای اجتناب از افزایش خطاهای 404 که در بخش log ها و آمار سایت جلوه خوبی ندارند، حتی شده یک فایل خالی با این نام در ریشه سایت خود قرار دهید.

نحوه تنظیم فایل robots.txt


یک فایل robots.txt معمولا از دو قانون ساده پیروی می کند، User-agent یا واسط کاربری (نوع خزنده یا ربات) و Disallow یا لینکی که دسترسی به آن را مسدود (یا مجاز) می کنیم؛ علاوه بر این، به یاد داشته باشید که در ابتدای آدرس دایرکتوری ها، باید از یک اسلش (/) نیز استفاده شود و در استفاده از حروف بزرگ یا کوچک نیز دقت کنید (به فرض دایرکتوری Image در مقایسه با image از دید ربات ها، معمولا دو آدرس متفاوت هستند).
به طور مثال اگر در فایل خود کد زیر را قرار دهیم:
User-agent: *
Disallow: /image/
ربات ها با پیروی از این قانون، دیگر محتوای فولدر image را بررسی نکرده و در نتایج جستجو آن را نمایش نمی دهند، هنگامی که از علامت * برای واسط کاربری استفاده می کنیم، در واقع منظور ما تمام ربات ها هستند، البته ذکر این نکته لازم است که تنها خزنده های برخی سایت ها و شرکت های معروف و معتبر به این قوانین احترام می گذارند و در مقابل برخی حتی برای ارسال اسپم یا نفوذ به صفحات حساس سایت ها، از این فایل، سوء استفاده نیز می کنند، لذا این نکته دارای اهمیت زیادی است که هیچ گاه برای محافظت از دایرکتوری های حساس، مانند دایرکتوری مدیریت سایت، به این فایل بسنده نکنید (بلکه یک سیستم ورود و خروج مطمئن برای آن در نظر بگیرید) و بهتر است آدرس دایرکتوری مدیریت را نیز در آن قرار ندهید، بهترین روش برای جلوگیری از ایندکس شدن دایرکتوری های حساس، این است که هیچ لینک خروجی و در معرض دید و دسترس ربات در صفحات خود نداشته باشید و از طرف دیگر دسترسی به محتوای این نوع صفحات را با ایجاد سیستم دریافت نام کاربری و کلمه عبور، محدود کنید.

چند مثال از نحوه استفاده از فایل robots.txt


برای آشنایی بیشتر و کاربردی تر، در زیر چند مثال با تنظیمات متفاوت را آورده ایم.
استفاده از فایل robots.txt و مسدود کردن یک فولدر برای تمام ربات ها:
User-agent: *
Disallow: /old-posts/
استفاده از فایل robots.txt و مسدود کردن یک فایل برای تمام ربات ها:
User-agent: *
Disallow: /old-posts/mypic.jpg
استفاده از فایل robots.txt و مسدود کردن یک فایل در ریشه سایت برای تمام ربات ها:
User-agent: *
Disallow: /private.html
استفاده از فایل robots.txt و مسدود کردن یک فولدر برای یک ربات خاص:
User-agent: Googlebot
Disallow: /personal/
برای دیدن لیست کامل واسط های کاربری (User-agent) می توانید به دیتابیس موجود در آدرس زیر مراجعه کنید:
http://www.robotstxt.org/db
مسدود بودن تمام صفحات برای تمام ربات ها:
User-agent: *
Disallow: /
مجاز بودن تمام صفحات برای تمام ربات ها:
User-agent: *
Allow: /

تنظیم فایل robots.txt با استفاده از الگو یا Pattern


علاوه بر ایجاد تنظیمات معمولی، برخی ربات ها (از جمله ربات گوگل) از قوانین پیچیده تری نیز پشتیبانی می کنند، این قوانین بی شباهت به عبارات با قاعده یا Regular Expressions نیستند، با این تفاوت که در اینجا فقط از چند علامت خاص (* ? $) استفاده می شود.
- برای تطبیق توالی از عبارات، از علامت * استفاده می شود، به طور مثال اگر ما چند دایرکتوری داشته باشیم که با عبارت فرضی book شروع شده باشند و بخواهیم با یک دستور، دسترسی ربات را به تمام آنها مسدود کنیم، خواهیم نوشت:
User-agent: Googlebot
Disallow: /book*/
به این ترتیب فولدرهای فرضی booksell، bookread، bookiran و... برای ربات مسدود خواهند شد، لذا همان طور که ملاحظه می کنید، نقش علامت * این است که در واقع عبارات بعد از آن در تطبیق نادیده گرفته می شوند.
- برای مسدود کردن لینک های داینامیک از علامت ? و * استفاده می کنیم، به فرض دستور زیر تمام لینک های داینامیک را برای ربات غیر قابل دسترس می کند:
User-agent: *
Disallow: /*?
همچنین می توان برای ساب دایرکتوری ها (دایرکتوری های زیر مجموعه) نیز این قابلیت را ایجاد کرد و از این نظر هیچ محدودیتی نیست:
User-agent: *
Disallow: /articles/*?
- برای مشخص کردن دقیق انتهای یک الگو، از علامت $ استفاده می شود، به فرض اگر قصد ما مسدود کردن تمام فایل های با پسوند png برای ربات باشد، خواهیم نوشت:
User-agent: * 
Disallow: /*.png$
به این ترتیب، تمام فایل هایی که به پسوند png ختم شده باشند، برای ربات مسدود می شوند.

استفاده ترکیبی از قوانین در فایل robots.txt


تنظیمات فایل robots.txt به موارد گفته شده محدود نمی شود، شما می توانید برای یک واسط کاربری، چندین و چند آدرس یا دایرکتوری مجاز یا غیر مجاز تعریف کنید، یا با قوانین پیچیده، دستورات پیچیده تری ایجاد نمائید، به فرض در برخی سایت ها ممکن است مقادیر id سشن (session یا نشست) به عنوان بخشی از آدرس صفحه به صورت رندوم در لینک ها قرار داده شود (این موضوع یک اشکال در سئو محسوب شده زیرا موجب بروز مطالب تکراری با لینک های متفاوت می گردد) و در مقابل برخی آدرس ها نیز علامت ? را به طور طبیعی داشته باشند، در اینگونه موارد اگر بخواهیم به ربات بگوییم که به عبارات بعد از علامت ? در لینک های دارای سشن id توجه نکند، ولی لینک هایی را که به علامت ? (بدون وجود کاراکتری بعد از علامت ?) ختم می شوند، ایندکس کند، در یک فایل robots.txt خواهیم نوشت:
User-agent: *
Allow: /*?$
Disallow: /*?
به این ترتیب قانون اول اجازه ایندکس تمام آدرس هایی را که نهایتا به علامت ? ختم می شوند می دهد (علامت $ نشان دهنده پایان یک الگو است)، اما قانون دوم باعث نادیده گرفتن سشن id در لینک های داینامیک سایت می شود (در واقع وقتی از علامت $ در انتهای الگو استفاده نمی شود، یعنی هر عبارتی بعد از علامت ? بیاید، شامل آن الگو می شود).  
یا به فرض اگر بخواهیم چند لینک مختلف را در یک دستور مسدود کنیم، خواهیم نوشت:
User-agent: *
Disallow: /articles/22.html
Disallow: /articles/23.html
Disallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وب

افزودن نقشه سایت به فایل robots.txt


علاوه بر مجاز و مسدود کردن لینک ها، دایرکتوری ها و فایل ها، فایل robots.txt یک قابلیت دیگر نیز دارد، از طریق این فایل می توانید نقشه xml سایت خود را به تمام ربات های خزنده معرفی کنید، برای انجام این کار کافی است با یک فاصله، آدرس کامل نقشه سایت خود را وارد نمائید، به فرض:
User-agent: *
Disallow: /articles/22.html
Disallow: /articles/23.html
Disallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وب

Sitemap: https://webgoo.ir/sitemap.xml

سایر روش های مسدود سازی لینک ها برای ربات جستجوگر


در پایان این مطلب، بد نیست اشاره ای نیز داشته باشیم به سایر روش های مسدود سازی لینک ها و صفحات، بر روی ربات های جستجوگر، علاوه بر استفاده از فایل robots.txt جهت کنترل رفتار خزنده های با اصل و نسب وب، دو روش دیگر نیز برای این کار وجود دارد، روش اول استفاده از متاتگ noindex است که در قسمت head صفحه قرار می گیرد، به فرض:
<meta name="robots" content="noindex" />
یا
<meta name="googlebot" content="noindex" />
روش دوم نیز ارسال یک سربرگ HTTP برای ربات ها در هنگامی که صفحه را درخواست می کنند است، انجام این کار در php با استفاده از توابع header و به شکل زیر صورت می گیرد:
header("X-Robots-Tag: noindex", true);
یا
header("X-Robots-Tag: noindex, nofollow", true);
sectionدسته بندی: مهارتهای وب » بهینه سازی
related مطالب بیشتر:
» رتبه بندی الکسا (Alexa) چیست و چقدر اهمیت دارد؟!
» مقایسه خطای 404 و کد 301 ریدایرکت (Redirect)
» مشکلات رایج در کدنویسی معتبر و رفع آنها
» پیج رنک چیست و چگونه می توان آن را افزایش داد؟
» چرا برخی سایت ها و وبلاگ ها رتبه الکسای بهتری دارند؟
commentنظرات (۸۴ یادداشت برای این مطلب ارسال شده است)
more یادداشت های جدید بر اساس تاریخ ارسال در انتهای یادداشت های موجود نمایش داده می شوند.
نویسنده: مرتضی
زمان: ۱۳:۲۷:۱۸ - تاریخ: ۱۳۹۴/۱۱/۱۴
خود وبلاگ تو هست ولی بیشتر صفحات پربازدیدش از نتایج پاک شد. فکر کنم به خاطر عوض کردن قالب بود که گوگل جریمه کرد دوباره قالب و برگشت دادم به حالت اول
فقط چیکار کنم به گوگل اطلاع بدم؟
پاسخ: 
ربات های گوگل به تناوب صفحات وبلاگ را واکاوی و نتایج را بر اساس آخرین اطلاعات به روز می کنند، لذا عملا نیازی به اطلاع رسانی و... نیست، مهم این است که ایرادات احتمالی صفحات خود را رفع کرده باشید، همچنین به خطاهای دریافتی در پنل ابزار وبمستر توجه کنید.
نویسنده: طراحی لوگو
زمان: ۱۶:۵۹:۳۵ - تاریخ: ۱۳۹۴/۱۲/۰۵
بخش مدیریت کجاست؟
پاسخ: 
معمولا هر برنامه مدیریت محتوای (CMS) استانداردی قسمتی به عنوان پنل مدیریت دارد که باید برای پی بردن به چند و چون آدرس (دایرکتوری) آن، به راهنمای سیستم مدیریت محتوا مراجعه کنید! به طور مثال:
yoursite.ir/admin/panel
نویسنده: سید حسین
زمان: ۰۱:۰۰:۱۳ - تاریخ: ۱۳۹۵/۰۱/۰۸
به نام خدا
با سلام.
من دو روز است که وبلاگی در بلاگ اسکای ساخته ام ولی هرچه آدرس وبلاگم رو در گوگل جستجو می کنم پیدا نمیشه. ممنون می شوم علتش رو بهم بگید
پاسخ: 
نمایش نتایج یک صفحه وب (سایت، وبلاگ و...) از زمان انتشار عمومی در وب تا نمایش در لیست موتورهای جستجو فرآیندی زمانبر است و ممکن است تا چند ماه طول بکشد، می توانید با ثبت وبلاگ در ابزار وبمستر گوگل و تبادل لینک با سایت ها و وبلاگ های دیگر این روند را سرعت ببخشید.
نویسنده: سعید حبیبی
زمان: ۱۴:۲۷:۰۱ - تاریخ: ۱۳۹۵/۰۴/۰۴
با عرض سلام و خسته نباشید
واقعا مطلب خوبی برای وب مستران قرار دادین که میتونه کمک بزرگی برامون انجام بده.
یه سوال داشتم از خدمتتون اینکه من از افزونه edd استفاده میکنم که مطالب دانلودی ایجاد و در مطلب اصلی برای فروش قرار میدم حالا میخوام مطالب دانلودی رو نذارم گوگل ایندکس کنه باید چه کار کنم و اگر به دستور robots.txt نیازه باید چه چیزی بنویسم؟
مطالب دانلودی من در ادرس زیر قرار داره میتونید مشاهده کنید.
hidanesh.ir/downloads
ممنون میشم کمک کنید.
پاسخ: 
با توجه به توضیحات، کافی است دستور زیر را در فایل robots.txt داشته باشید:
User-agent: *
Disallow: /downloads/
نویسنده: milad
زمان: ۱۹:۴۸:۵۱ - تاریخ: ۱۳۹۵/۰۶/۲۶
با سلام
لطفا ایراد اینجا کجاست که سئو سایت اینو اعلام میکنه ==>
علائم واختصارات
نشانگر زرد بدین معنی است که یک افزونه غیر استاندارد شناسایی شد؛ نه اینکه همه ربات های جستجوگر ممکن است آن را شناسایی کنند یا آن را در همان راه تفسیر کنند. دستورات Allow و Sitemap بیشتر توسط گوگل و یاهو استفاده می شوند.
نشانگر زرد بدین معنی است که نگارش فایل Robots.txt نادرست است.
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-admin/admin-ajax.php
Disallow: /files/
Disallow: /_/
Sitemap: http://www.agahiraygan.net/sitemap.xml.gz
Sitemap: http://www.agahiraygan.net/sitemap.xml
پاسخ: 
با توجه به کدی که درج کرده اید، اشکالی در فایل Robots.txt سایت مشاهده نمی شود!
نویسنده: سجاد
زمان: ۱۵:۱۵:۲۲ - تاریخ: ۱۳۹۵/۰۹/۰۹
سلام خسته نباشید
ببخشید من فایل robots.txt رو با دستور
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
ایجاد کردم و داخل هاست قرار دادم
الان وقتی از طریق ادرس سایت چکش میکنم یعنی اخر ادرس سایتم robots.txt رو میزارم تمام جزیات txt رو میتونم ببینم ولی از طریق گوگل وب مستر بخش crawl که میخوام چک کنم میگه سایت شما فایل robots.txt رو نداره
چطوری میتونم این مشکل رو حل کنم؟
پاسخ: 
این مشکل نیاز به تست دارد، ممکن است فایل را در ریشه سایت قرار نداده باشید یا اینکه به دلیلی دسترسی ربات گوگل به سایت شما موقتا یا به صورت همیشگی مسدود شده باشد (فایروال سرور، مشکلات سرورهای داخل کشور و...).
نویسنده: حسین معصومین
زمان: ۱۹:۰۰:۱۶ - تاریخ: ۱۳۹۵/۰۹/۱۳
سلام
من برای سایتم این فایل رو ایجاد کردم ولی متاسفانه برعکس شد و ترافیک سایتم خیلی اومد پایین
تو نتایج جستجو گوگل مینویسه در فایل robots.txt بسته شده ولی اینطور نیست
به نظر تون باید چکارکنم ؟
لطفا کمکم کنید
پاسخ: 
کاهش ترافیک سایتتان با توجه به دستورات فعلی فایل robots.txt نمی تواند به این موضوع خیلی ارتباط داشته باشد مگر اینکه دستورات دیگری قرار داده باشید، در اینصورت باید مدت زمانی بگذرد تا دستورات جدید اعمال شود!
نویسنده: حسین معصومین
زمان: ۱۴:۰۸:۱۰ - تاریخ: ۱۳۹۵/۰۹/۱۵
سلام
من سایتم تو سرچ اینترنت از وقتی براش فایل روبوت درست کرده بودم این پیغام رو میده
A description for this result is not available because of this site’s robots.txt
الان هم که کلا تو ربوتس همه چی رو باز گذاشتم بازم نرفته چکار کنم
http://mynegin.ir/robots.txt
یه مدتیه اصلا ورودی از گوگل ندارم دیگه
چطوری درست میشه ؟
با جستجوی “دانلود رایگان نرم افزار آژانس تاکسی تلفنی” قبلا لینک اول گوگل بود حالا اصلا نمیاد
http://mynegin.ir
لطفا کمکم کنید
پاسخ: 
سایت خود را در ابزار وبسمتر گوگل ثبت و چک نمائید، همچنین برای اعمال دستورات جدید باید مدت زمانی از اعمال آخرین تغییرات بگذرد، در هر حال اگر اشکال از دستورات قبلی فایل robots.txt بوده باشد، با تغییر این دستورات، به روال عادی باز خواهد گشت!
نویسنده: مهدی
زمان: ۱۳:۵۶:۵۹ - تاریخ: ۱۳۹۵/۰۹/۲۱
سلام
من یک سایت نیازمندی دارم صفحه توضیحات هر آگهی لینکی به صورت زیر داره :
http://test.ir/news/18161276.html
که باید ایندکس بشه
در زیر سایر آگهی ها رو داریم که صفحه بندی شده با آدرس مطابق زیر :
http://test.ir/news/18161276/page_1.html
نمیخوام این صفحه بندی ها ایندکس بشه.
آیا کد زیر صحیح است؟
و آیا باعث جلوگیری از ایندکس کد اولی نمی شود؟
Disallow: /news/*/page_*.html$
پاسخ: 
الگوی دستور تداخلی با لینک های اصلی ندارد، پس نباید مشکلی از این نظر باشد، اما برای اطمینان از اینکه ربات دستورات شما را درک کرده است، بهتر است سایت خود را در ابزار وبسمتر گوگل ثبت و از آنجا سایتتان را مانیتور کنید!
نویسنده: سهیل
زمان: ۱۱:۱۱:۳۷ - تاریخ: ۱۳۹۵/۱۰/۱۴
سلام ؛
اگر url سایت ما مثل (site.com/dis/i/10172/20/salam) باشه ، حالا بجای عدد 20 یه عدد دیگه ای بزاریم دوباره همون صفحه و مطلب عدد 20 بالا میاد ... حالا گوگل اومده چن تا مث این صفحه رو ایندکس کرده و مطالب ما کپی دراومده !! تو رباتز [دات] تی ایکس تی باید چه دستوراتی رو وارد کنم که فقط این گونه url ها رو ایندکس نکنه ؟!
پاسخ: 
اگر درست متوجه سوالتان شده باشیم، انجام این کار با فایل robots.txt میسر نیست! مگر اینکه تک تک آدرس ها را به صورت دستی وارد کنید که جزء برای موارد محدود، راه حل کاربردی نیست! این موارد باید با کدنویسی سمت سرور رفع شوند (در گام اول باید لینک های اضافه تولید نشوند و در گام های بعد می توان از ریدایرکت 301 و link rel canonical استفاده کرد).
نویسنده: Aramesh
زمان: ۱۶:۰۸:۲۵ - تاریخ: ۱۳۹۵/۱۱/۰۱
سلام
ببخشید من نمیتونم علمی یا کتابی مثل شما صحبت کنم ولی ممنون از اینکه خیلی کامل و مفید توضیح دادین و مشکل من هم همینهایی که توضیح دادین و اینکه سایت گوگل کام باز نمیشه علامت / اینجوری بعدش میاد و تنظیمات کل پیش فرض تبلتم رو در اختیار گرفته و نسخه inc گوگل برام میاد و مشکل باز کردن عکس رو هم دارم و در ضمن لطفا بگین این کدهایی رو که گفتین کجا تایپش کنیم
با تشکر از خدمات ارزندتون
پاسخ: 
سوالتان واضح نیست! لطفا با چند تصویر از مشکل، منظورتان را بهتر توضیح دهید تا امکان راهنمایی وجود داشته باشد.
نویسنده: ابوالفضل
زمان: ۰۴:۵۲:۱۹ - تاریخ: ۱۳۹۶/۰۱/۰۵
با سلام بنده این دستور هارو به robots دادم
حذف شد
و توی هاست آپلودش کردم ولی وقتی ادرس رو میزنی این دستور هارو برام میاره
حذف شد
ممنون میشم راهنمایی کنید بگید چیکاری انجام بدم این مشکل رو حل کنم
پاسخ: 
این مشکل نیاز به بررسی فایل robots.txt در سرور سایتتان دارد، اگر این فایل در فولدر www یا public_html قابل ویرایش باشد، نباید با این مشکل مواجه شوید، بهتر است فایل را در سیستم خود ویرایش و سپس با نسخه موجود در سرور جایگزین نمائید، همچنین صفحه مرورگر را با زدن دکمه ترکیبی Ctrl+F5 به صورت کامل رفرش کنید.
نویسنده: باغ تالار
زمان: ۱۵:۱۱:۰۶ - تاریخ: ۱۳۹۶/۰۲/۲۹
سلام
خیلی ممنون از مطلب مفیدتون
یه سوال دارم
این هایی که نوشته باید همشون رو استفاده کنیم یا نه فقط مثلا سایت مپ رو میذارم داخلش
و از کد دیگه ای استفاده نمیکنم
این اوکی هست یا نه ؟
پاسخ: 
در کل مشکلی وجود ندارد، فایل robots.txt حتی می تواند خالی باشد، اما برای اطمینان بیشتر بهتر است یک دستور کلی مانند نمونه زیر در آن قرار دهید:
User-agent: *
Allow: /
Sitemap: https://webgoo.ir/sitemap.xml
نویسنده: شیخی
زمان: ۱۰:۳۸:۰۱ - تاریخ: ۱۳۹۶/۰۵/۰۲
با سلام یک مشکل جدی در رابطه با روبوت دارم و با توجه به اینکه توضیحات زیاد بود لذا در انجمن وردپرس پارسی پرسیدم. لطفا بنده را در این مورد راهنمای کنید.
تشکر
http://forum.wp-parsi.com/topic/44641-%D8%B9%D8%AF%D9%85-%D8%AF%D8%B3%D8%AA%D8%B1%D8%B3%DB%8C-%D8%B1%D8%A8%D8%A7%D8%AA-%DA%AF%D9%88%DA%AF%D9%84-%D8%A8%D9%87-%D8%A8%D8%B9%D8%B6%DB%8C-%D8%A7%D8%B2-%D9%81%D8%A7%DB%8C%D9%84-%D9%87%D8%A7%DB%8C-js/#comment-261848
پاسخ: 
ظاهرا مشکل برطرف شده.
نویسنده: احسان
زمان: ۰۲:۴۹:۱۷ - تاریخ: ۱۳۹۶/۰۵/۱۳
برای قطع دسترسی سایت هایی که تصاویر رو کپی می‌کنن باید چیکار کرد؟
پاسخ: 
معمولا در ابزارهای مدیریت سرور مانند cPanle و... قسمتی تحت عنوان HotLink Protection وجود دارد، با فعال کردن این قسمت فایل های سایت شما در صفحات دیگر وب نمایش داده نخواهد شد، روش های دیگری نیز وجود دارد که در مطلبی جداگانه توضیح داده شده، لطفا عبارت "محافظت از مطالب وبلاگ در مقابل کپی غیر مجاز!" را در وب جستجو کنید.
more لطفا پیش از ارسال یادداشت نکات زیر را مد نظر داشته باشید:
- مواردی که به کلی خارج از موضوع این مطلب هستند را در فرم منوی "تماس با ما" مطرح و پاسخ را از طریق ایمیل دریافت کنید.
- به سوالات کلی، مبهم، غیرضروری و مشکلاتی که تلاشی برای رفع آن نکرده باشید پاسخ خاصی داده نخواهد شد.
- کدها و اسکریپت های طولانی را ترجیحا در یک صفحه وب آنلاین قرار دهید تا امکان تست و بررسی وجود داشته باشد.
- تمام یادداشت ها بررسی و برای هر کاربر زمان مشخصی جهت پاسخگویی در نظر گرفته می شود، لذا از طرح سوالات متعدد در بازه زمانی کوتاه خودداری کنید.




9 × 5
 refresh
نکته:
با توجه به تاریخ نگارش آموزش های سایت و پیشرفت تکنولوژی های مرتبط با وب در سالیان اخیر، محتوای برخی از مطالب قدیمی ممکن است نیاز به ویرایش و به روزرسانی داشته باشد که این کار هم زمان با تهیه نسخه جدید «وبگو» به مرور در حال انجام است، لطفا در استفاده از مطالب سایت به این نکته دقت داشته و حتی المقدور از چند منبع مختلف استفاده نمائید.
آخرین دیدگاه ها
form مجید بیگلوئی
در:
با سلام میخوام فایل پیوست بسازم برای اسکریپت وبلاگ از کد زیر استفاده میکنم تا فایل را آپلود و اطلاعات را به دیتابیس ارسال...
۱۰:۰۲:۵۸ ۱۳۹۸/۱۲/۰۶

form پیمان نقی پور
در:
سلام میخواستم بدونم فیلتر نویسی بورس هم با همین زبان جاوا انجام میشه؟ چطور میشه شرطی تعیین کرد تا نتیجه فیلتر در هنگام...
۱۸:۲۱:۳۲ ۱۳۹۸/۱۲/۰۵

form mahdi
در:
سلام استاد ، css رو تسلط کامل دارم تا حدودیش هم به لطف شما و جاوا اسکریپت هم چند روزی میشه شروع کردم به آموزش...
۱۵:۴۸:۳۳ ۱۳۹۸/۱۲/۰۵

form amin
در:
با سلام آدرس مطالب سایت وبگو بعد از ای دی پست عنوان فارسی هست ولی زمانی که به سورس کد پست نگاه میکنیم قسمت فارسی...
۱۴:۵۹:۴۴ ۱۳۹۸/۱۲/۰۵

form mahdi
در:
سلام استاد ، لینک آموزش مقدماتی جاوا اسکریپت توی منوی بالایی خرابه ، به وظیفه شهروندیم عمل کردم :)
۱۵:۰۹:۰۰ ۱۳۹۸/۱۲/۰۴

form aseman
در:
با سلام . میخوام هر وقت توی تکس باکسم عدد 1 وارد شد در خروجی تگ p معادل حروفی یک رو بهم بده. مثلا:...
۱۴:۴۵:۲۹ ۱۳۹۸/۱۲/۰۴

form mahdi
در:
سلام استاد ، گذاشتمش توی این وبلاگ رمزش هم ******* هستش ، واقعیت فهمیدم که میشه درستش کرد ولی چجوریشو نفهمیدم :) خیلی ممنون...
۱۳:۲۰:۱۴ ۱۳۹۸/۱۲/۰۴

form mahdi
در:
سلام استاد، وبلاگ ندارم، اینا رو برای یادگیری و یه هدف دیگه دارم سوال میکنم، مطالب مرتبط رو پیدا کردم راهشو، فقط قسمت ارسال نظر...
۲۰:۱۵:۰۲ ۱۳۹۸/۱۲/۰۳

form نیما
در:
سلام. من میخوام با استفاده از یک input مقدار عددی رو از کاربر دریافت کنم و بعد از ضرب در عددی خاص که خودم تعیین...
۱۸:۰۷:۰۴ ۱۳۹۸/۱۲/۰۳

form وحید
در:
سلام وقت بخیر حدود شش ماه هست با فیلتر شکن کار میکنم به اسم Lightvpn. یک روز هست این خطا رو میده و...
۱۸:۰۰:۰۶ ۱۳۹۸/۱۲/۰۳

form mahdi
در:
سلام ، استاد شرمنده یه سوال دیگه هم داشتم مثل قبلی ، مطالب مرتبط که انتهای هر پست میاد رو چطوری با جاوا اسکریپت توی...
۲۳:۴۶:۲۳ ۱۳۹۸/۱۲/۰۲

form mahdi
در:
سلام استاد عزیز ، توی لوکس بلاگ میشه چیزی مثل پست های شاخص که توی وردپرس هست با جاوا اسکریپت درست کنیم که مثلا داخل...
۲۳:۱۴:۴۰ ۱۳۹۸/۱۲/۰۲

form mahdi
در:
سلام استاد ، بخش نظرات قالب لوکس بلاگ یعنی طرح کل صفحش رو چطوری دسترسی داشته باشیم که خودمون بتونیم طراحیش کنیم ؟ منظورم اینه...
۱۸:۱۱:۳۳ ۱۳۹۸/۱۲/۰۱

form علیرضا سهیلی
در:
سلام من وقتی میخوام شارژ بزنم این کد واسم میاد معنیش یعنی چی
۱۴:۳۳:۱۴ ۱۳۹۸/۱۲/۰۱

form mahdi
در:
سلام استاد ، فهمیدم چطوریه نیازی به پاسخ نیست، چقدرم ساده بود :) مرسی
۰۹:۴۸:۴۹ ۱۳۹۸/۱۱/۳۰
آگهی