קובץ Robots.txt: מה זה וכל מה שחשוב לדעת עליו

אם הינך מקדם אתרים או מומחה קידום אתרים בוודאי שמעת ואתה אולי גם עושה שימוש מדי פעם בקובץ Robots.txt.

במידה ואתה עוסק בקידום אתרים מקצועי ומעולם לא שמעת על הקובץ הזה – גש לעשות קורס קידום אתרים דחוף (יש לי כזה, מעולה ובחינם).

קובץ robots.txt

מה זה קובץ robots.txt ולמה הוא משמש?

קובץ robots.txt הינו קובץ היושב על התיקייה הראשית של האתר (לדוגמא: domain.co.il/robots.txt) ותפקידו להנחות את מנועי החיפוש השונים (וכמובן גוגל ביניהם) לגבי אילו אזורים באתר שלנו כן לסרוק ולאנדקס ואיזה לא.

כברירת מחדל, מנועי החיפוש יסרקו כל עמוד שימצאו באתר.

על כן, השימוש העיקרי בקובץ רובוטס הוא לחסום תיקיות ואזורים באתר אשר אנו לא רוצים שמנועי החיפוש "יבקרו בהם".

בדרך כלל מדובר בתיקיות ניהול של המערכת, סקריפטים שונים ועוד.

ככה למשל, נראה קובץ robots.txt:

קובץ robots.txt לדוגמא

הסבר בסיסי על קובץ robots.txt:

  • User-Agent: מגדיר לאיזה מנוע חיפוש מתייחסת הפקודה: למשל גוגל, יאהו, בינג, באיידו וכו'
  • Disallow: פקודה שמורה למנוע החיפוש הרלוונטי מאיזה קבצים או תיקיות באתר להתעלם ולמעשה לא לאנדקס
  • Allow: פקודה המחריגה ומאפשרת סריקה בתוך תיקיה שנחסמה בעזרת Disallow. אין צורך שתהיה פקודת Allow כללית בקובץ robots.txt כי כאמור, ברירת המחדל של גוגל (ומנועי חיפוש אחרים) היא לסרוק כל דבר אלא אם נאמר להם אחרת.

בנוסף, לקובץ רובוטס עוד 2 תפקידים משניים:

1. ניהול עומס על השרת:

ניתן להשתמש בהוראת Crawl-Delay (פחות נפוצה כיום ופחות נתמכת, במיוחד על ידי גוגל) כדי לבקש מבוטים להמתין זמן מסוים בין בקשות לדפים, ובכך להפחית עומס.

גוגל ממליצה להשתמש בכלי הגדרת קצב הסריקה ב-Google Search Console במקום זאת.

2. הכוונת בוטים למפת האתר (Sitemap):

אשמח לבדוק את האתר שלך בחינם!

על מנת לראות את הפוטנציאל האורגני ותוך כמה זמן נכפיל לך את ההכנסות

ניתן לחייג למספר 052-9095200 או למלא את הטופס:

ניתן לציין את מיקום קובץ ה-XML Sitemap של האתר, מה שמסייע לבוטים לגלות את כל הדפים המיועדים לאינדוקס בצורה יעילה.

למה שנרצה לחסום אזורים או עמודים באתר בעזרת קובץ Robots.txt?

במקרים מסוימים, נרצה לחסום למנועי חיפוש גם אזורים באתר אשר נגישים למשתמש.

מקרים נפוצים בהם נרצה לחסום קבצים או תיקיות שלמות באתר שלנו:

  • אזור האדמין (ניהול האתר)
  • חסימה גורפת של אתר (בזמן הקמה למשל)
  • חסימת אזורים באתר שנמצאים בשלבי פיתוח (לפני השקה)
  • חסימת אזורים באתר שפתוחים רק למשתמשים מורשים – לדוגמא קורסים בתשלום
  • ועוד…

בסרטון הקצר הבא אני מסביר על חסימת עמודים:

דוגמא נפוצה לחסימת אתר בעזרת קובץ robots.txt – אתרים בפיתוח

שימוש נפוץ בקובץ robots.txt הוא חסימה גורפת של אתרים אשר נמצאים בתהליך בנייה.

למה חוסמים אתרים לגוגל בשלב הבנייה?

הסיבה פשוטה: לא נרצה שגוגל יסרוק אתר שהוא "חצי אפוי".

סריקה של אתר שאינו מוכן לעלייה לאוויר, נמצא בשלבי בנייה או בתהליכי שדרוג – יכולה לגרום ל"רושם שלילי" בעיני גוגל, ובכל מה שקשור לגוגל – האינטרס שלנו להיות ביחסים טובים איתם.

במילים אחרות – מומלץ יותר לחסום כל אתר שנמצא בשלב בנייה, ולשחרר את החסימה מהקובץ robots.txt רק לאחר שהאתר עולה לאוויר.

ומה עושים במידה ואני משדרג אתר קיים?

כאשר מדברים על שדרוג אתר קיים – הפרקטיקה המומלצת היא לשכפל את האתר לסביבת פיתוח, לבנות עליה את האתר החדש (או להתחיל אותו מאפס) ומיד לאחר מכן לחסום אותו לסריקה ואינדוקס של גוגל.

חסימה במקרה כזה, נועדה מגוגל לסרוק במקביל את האתר הנוכחי והאתר החדש (שנמצא בשלבה הקמה) ובכך למנוע מצב של תוכן משוכפל, שיכול להסב נזק לא קטן ל-SEO של האתר.

האם קובץ robots.txt הוא חובה?

לא. לא בכל אתר חייב להיות את הקובץ הזה, ובעצם אם אין לנו שום דבר שנרצה לחסום לסריקה, אין סיבה להשתמש בו.

כמו כן, ניתן לבדוק את תקינות הקובץ במידה והאתר שלנו מחובר ל Search Console של גוגל.

דרכים נוספים לחסום עמודים בגוגל

מלבד קובץ robots.txt, שנועד מראש לחסימות גורפות יותר (תיקיות ואזורים שלמים באתר), ניתן גם לחסום עמודים ספציפיים באתר בעזרת פקודת noindex.

זוהי מעין תגית שמוסיפים בקוד של האתר שאומרת למנועי החיפוש "נא לא לאנדקס את העמוד הזה".

במידה ואתם עובדים עם וורדפרס ותוסף Yoast, ככה ניתן להגדיר זאת:

איך חוסמים עמוד בעזרת Yoast

מדריכים נוספים:

אהבת? גם ברשימת תפוצה שלי אני מפנק :-) ועל הדרך נותן מתנה >>
הרשמה לרשימת תפוצה
יש מצב שגם אלו יעניינו אותך...
Call Now Button חייגו עכשיו