דילוג לתוכן
  • חוקי הפורום
  • לא נפתר
  • משתמשים
  • חיפוש גוגל בפורום
  • צור קשר
עיצובים
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • ברירת מחדל (ללא עיצוב (ברירת מחדל))
  • ללא עיצוב (ברירת מחדל)
כיווץ
לוגו מותג
  1. דף הבית
  2. מחשבים וטכנולוגיה
  3. מדריכים - מחשבים וטכנולוגיה
  4. מדריך | איך תשמרו את המידע על הדפדפן שלכם מפני אתרים

מדריך | איך תשמרו את המידע על הדפדפן שלכם מפני אתרים

מתוזמן נעוץ נעול הועבר מדריכים - מחשבים וטכנולוגיה
3 פוסטים 2 כותבים 1.7k צפיות 3 עוקבים
  • מהישן לחדש
  • מהחדש לישן
  • הכי הרבה הצבעות
תגובה
  • תגובה כנושא
התחברו כדי לפרסם תגובה
נושא זה נמחק. רק משתמשים עם הרשאות מתאימות יוכלו לצפות בו.
  • נ מנותק
    נ מנותק
    נחמן מזוז
    מדריכים
    כתב ב נערך לאחרונה על ידי נחמן מזוז
    #1

    שיעור קטן באבטחת מידע עליכם ברשת 😎

    התוסף User-Agent Switcher and Manager יכול לשנות את ה user-agent שלכם שאתם שולחים לאתרים.

    אז קודם כל להתקנת התוספים
    כרום
    אד'ג
    פיירפוקס
    אופרה
    אוקיי אז אחרי שהתקנתם בא נתחיל

    אז קודם כל נבין מה זה User-Agent?

    בתוך כל (או רוב) בקשות הHTTP שהדפדפן שלכם שולח לשרתים יש headers שהם מעין כותרות עם מידע עליכם ועל הבקשה. לדוגמא מי הפנה אתכם לאתר מסוים, איזה עמוד באתר אתם מבקשים, איזה שפות הדפדפן תומך ועוד כל מיני שמשתנות בהתאם לאתר.
    אחד מהheaders האלה נקרא User-Agent.
    תוכנו הוא פירוט המכשיר ממנו גולש הלקוח לאתר.

    דוגמא לבקשת http אחת יכולה להיראות כך:
    GET /hello.htm HTTP/1.1
    User-Agent: Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:78.0) Gecko/20100101 Firefox/78.0
    Host: www.tutorialspoint.com
    Accept-Language: en-us
    Accept-Encoding: gzip, deflate
    Connection: Keep-Alive

    השרת שמקבל את הבקשה עכשיו יכול לדעת ש:
    • אני רוצה את העמוד hello.htm — שורת הבקשה הראשונה
    • אני יכול לקבל דפים באנגלית — Accept-Language
    • אני משתמש בחלונות 7 ודפדפן פיירפוקס גרסה 78 — User-Agent

    למה זה טוב?
    זה טוב אם לדוגמא הדפדפן שלכם לא תומך בספריות JS מסוימות אז האתר ישלח לכם גרסה אחרת מותאמת. או אם אתם גולשים מהטלפון תקבלו גרסה קלה יותר ומותאמת יותר לטלפון.
    וגם זה טוב כדי לעקוב אחריכם כי ככה אפשר לדעת באיזה מכשיר אתם משתמשים כדי לגשת לאתרים מסוימים.

    ולפה נכנס התוסף החדש!
    התוסף, נקרא לו UASM, מאפשר לכם לשנות את ה User-Agent שאתם שולחים לאתרים עם כל בקשת HTTP.
    לתוסף יש מגוון רחב של User-Agentים אפשריים עם כמעט כל מערכת הפעלה שאפשר להעלות על הדעת וכל דפדפן שקיים.
    זה יכול להיות טוב אם אתם רוצים לחסוך בנתונים ולשים User-Agent של טלפון.
    או סתם לראות מה תהיה התגובה של האתר כשהוא פתאום יראה שאתם גולשים מiPhone 4 עם פיירפוקס 100 🧐

    והכי חשוב: אם אתם לא רוצים שיידעו בדיוק מאיזה דפדפן, איזו גרסה, איזו מערכת הפעלה והגרסה שלה, אתם גולשים — אז זה רעיון טוב לשנות את הUser-Agent 🙂

    טיפ💡: ניתן לכתוב בשורה של הuser-agent בתוסף את המילה 'empty' ואז הדפדפן לא ישלח את הheader הזה בכלל

    עוד דבר שאפשר לעשות:

    שינוי ה UA יכול לעזור לכם לחמוק מחומות תשלום (paywalls) באתרים שלדוגמא יאפשרו לכם להמשיך לקרוא רק אם תשלמו. 🤑

    הרבה אתרים רוצים שהכתבות או התוכן שלהם כן יופיעו בתוצאות של מנועי החיפוש. ולכן הם צריכים לאפשר למנועי החיפוש גישה אליהם.
    אז אם אתם משנים את הUA (מדריך בהודעה שעליה אני משיב) שלכם לכזה של מנוע חיפוש שהאתר כן ייתן לו גישה — אתם עקרונית יכולים לעקוף כל מיני הגבלות!

    ניקח לדוגמא כתבה רנדומלית מאתר הארץ (כי יש להם המון חומות תשלום): סתם משהו על האקלים
    (לכתבה) אם תפתחו את הכתבה הזאת באופן נורמלי אתם תוכלו לקרוא רק את הכותרת ואת הפסקה הראשונה — יותר מזה תצטרכו מנוי.
    עובד על כל אתר אם חומות תשלום שמאשר לטיוטר בוט או גוגל בוט לאנדקס את הכתבות שלו פשוט אם יש לכם אתר שאתם רוצים לקרוא את הכתבות שיש בו והוא בתשלום אז תנסו את זה

    עכשיו, בעזרת התוסף שהראיתי בתחילת בפוסט, תשנו את ה User-Agent ל TwitterBot ותוכלו לקרוא את הכתבה המלאה!

    למה שאתרים יאפשרו את זה?
    אפשרות אחת יכולה להיות שהם רוצים שמנועי חיפוש יעלו את הקישור שלהם לא רק בגלל מילות חיפוש שמופיעות בכותרת עצמה. כי אז רק מילים ספציפיות מאוד יעלו את זה. אלא גם מילים מהכתבה עצמה שיכולים להיות קשורים. ולכן הם צריכים לאפשר למנועי חיפוש לאנדקס את כל הכתבה.🤔

    נוצר מצב שבו הם רוצים שהכתבה תהיה נגישה למנועי החיפוש כדי שיופיעו בתוצאות, אבל לא לנו כדי שנשלם.
    מה לעשות שאפשר לזייף User-Agent?

    אתם יכולים ללמוד עוד אודות ההרשאות של מנועי חיפוש לאתרים מסוימים תחת ה URI של robots.txt
    לדוגמא
    example.com/robots.txt
    https://www.ynet.co.il/robots.txt

    שם תוכלו לראות מה מנהל האתר מאפשר למנועי חיפוש לאנדקס ומה לא (יותר בכיוון של מבקש). הרבה פעמים תמצאו שם עמודי כניסה למנהלים ועוד דברים שלא רוצים שתראו. אז כדאי להציץ שם מידי פעם 😉

    רוצים לדעת יותר?
    ויקיפדיה
    לחסומים👇
    User-Agent - ויקיפדיה

    לחובבי קוד מקור אפשר להציץ על הקוד בגיט האב

    מקור

    elazarE תגובה 1 תגובה אחרונה
    15
    • נ מנותק
      נ מנותק
      נחמן מזוז
      מדריכים
      כתב ב נערך לאחרונה על ידי
      #2
      פוסט זה נמחק!
      תגובה 1 תגובה אחרונה
      0
      • נ נחמן מזוז התייחס לנושא זה ב
      • mefateachM mefateach התייחס לנושא זה ב
      • נ נחמן מזוז

        שיעור קטן באבטחת מידע עליכם ברשת 😎

        התוסף User-Agent Switcher and Manager יכול לשנות את ה user-agent שלכם שאתם שולחים לאתרים.

        אז קודם כל להתקנת התוספים
        כרום
        אד'ג
        פיירפוקס
        אופרה
        אוקיי אז אחרי שהתקנתם בא נתחיל

        אז קודם כל נבין מה זה User-Agent?

        בתוך כל (או רוב) בקשות הHTTP שהדפדפן שלכם שולח לשרתים יש headers שהם מעין כותרות עם מידע עליכם ועל הבקשה. לדוגמא מי הפנה אתכם לאתר מסוים, איזה עמוד באתר אתם מבקשים, איזה שפות הדפדפן תומך ועוד כל מיני שמשתנות בהתאם לאתר.
        אחד מהheaders האלה נקרא User-Agent.
        תוכנו הוא פירוט המכשיר ממנו גולש הלקוח לאתר.

        דוגמא לבקשת http אחת יכולה להיראות כך:
        GET /hello.htm HTTP/1.1
        User-Agent: Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:78.0) Gecko/20100101 Firefox/78.0
        Host: www.tutorialspoint.com
        Accept-Language: en-us
        Accept-Encoding: gzip, deflate
        Connection: Keep-Alive

        השרת שמקבל את הבקשה עכשיו יכול לדעת ש:
        • אני רוצה את העמוד hello.htm — שורת הבקשה הראשונה
        • אני יכול לקבל דפים באנגלית — Accept-Language
        • אני משתמש בחלונות 7 ודפדפן פיירפוקס גרסה 78 — User-Agent

        למה זה טוב?
        זה טוב אם לדוגמא הדפדפן שלכם לא תומך בספריות JS מסוימות אז האתר ישלח לכם גרסה אחרת מותאמת. או אם אתם גולשים מהטלפון תקבלו גרסה קלה יותר ומותאמת יותר לטלפון.
        וגם זה טוב כדי לעקוב אחריכם כי ככה אפשר לדעת באיזה מכשיר אתם משתמשים כדי לגשת לאתרים מסוימים.

        ולפה נכנס התוסף החדש!
        התוסף, נקרא לו UASM, מאפשר לכם לשנות את ה User-Agent שאתם שולחים לאתרים עם כל בקשת HTTP.
        לתוסף יש מגוון רחב של User-Agentים אפשריים עם כמעט כל מערכת הפעלה שאפשר להעלות על הדעת וכל דפדפן שקיים.
        זה יכול להיות טוב אם אתם רוצים לחסוך בנתונים ולשים User-Agent של טלפון.
        או סתם לראות מה תהיה התגובה של האתר כשהוא פתאום יראה שאתם גולשים מiPhone 4 עם פיירפוקס 100 🧐

        והכי חשוב: אם אתם לא רוצים שיידעו בדיוק מאיזה דפדפן, איזו גרסה, איזו מערכת הפעלה והגרסה שלה, אתם גולשים — אז זה רעיון טוב לשנות את הUser-Agent 🙂

        טיפ💡: ניתן לכתוב בשורה של הuser-agent בתוסף את המילה 'empty' ואז הדפדפן לא ישלח את הheader הזה בכלל

        עוד דבר שאפשר לעשות:

        שינוי ה UA יכול לעזור לכם לחמוק מחומות תשלום (paywalls) באתרים שלדוגמא יאפשרו לכם להמשיך לקרוא רק אם תשלמו. 🤑

        הרבה אתרים רוצים שהכתבות או התוכן שלהם כן יופיעו בתוצאות של מנועי החיפוש. ולכן הם צריכים לאפשר למנועי החיפוש גישה אליהם.
        אז אם אתם משנים את הUA (מדריך בהודעה שעליה אני משיב) שלכם לכזה של מנוע חיפוש שהאתר כן ייתן לו גישה — אתם עקרונית יכולים לעקוף כל מיני הגבלות!

        ניקח לדוגמא כתבה רנדומלית מאתר הארץ (כי יש להם המון חומות תשלום): סתם משהו על האקלים
        (לכתבה) אם תפתחו את הכתבה הזאת באופן נורמלי אתם תוכלו לקרוא רק את הכותרת ואת הפסקה הראשונה — יותר מזה תצטרכו מנוי.
        עובד על כל אתר אם חומות תשלום שמאשר לטיוטר בוט או גוגל בוט לאנדקס את הכתבות שלו פשוט אם יש לכם אתר שאתם רוצים לקרוא את הכתבות שיש בו והוא בתשלום אז תנסו את זה

        עכשיו, בעזרת התוסף שהראיתי בתחילת בפוסט, תשנו את ה User-Agent ל TwitterBot ותוכלו לקרוא את הכתבה המלאה!

        למה שאתרים יאפשרו את זה?
        אפשרות אחת יכולה להיות שהם רוצים שמנועי חיפוש יעלו את הקישור שלהם לא רק בגלל מילות חיפוש שמופיעות בכותרת עצמה. כי אז רק מילים ספציפיות מאוד יעלו את זה. אלא גם מילים מהכתבה עצמה שיכולים להיות קשורים. ולכן הם צריכים לאפשר למנועי חיפוש לאנדקס את כל הכתבה.🤔

        נוצר מצב שבו הם רוצים שהכתבה תהיה נגישה למנועי החיפוש כדי שיופיעו בתוצאות, אבל לא לנו כדי שנשלם.
        מה לעשות שאפשר לזייף User-Agent?

        אתם יכולים ללמוד עוד אודות ההרשאות של מנועי חיפוש לאתרים מסוימים תחת ה URI של robots.txt
        לדוגמא
        example.com/robots.txt
        https://www.ynet.co.il/robots.txt

        שם תוכלו לראות מה מנהל האתר מאפשר למנועי חיפוש לאנדקס ומה לא (יותר בכיוון של מבקש). הרבה פעמים תמצאו שם עמודי כניסה למנהלים ועוד דברים שלא רוצים שתראו. אז כדאי להציץ שם מידי פעם 😉

        רוצים לדעת יותר?
        ויקיפדיה
        לחסומים👇
        User-Agent - ויקיפדיה

        לחובבי קוד מקור אפשר להציץ על הקוד בגיט האב

        מקור

        elazarE מנותק
        elazarE מנותק
        elazar
        צוות פיקוח
        כתב ב נערך לאחרונה על ידי
        #3
        פוסט זה נמחק!
        תגובה 1 תגובה אחרונה
        0
        • elazarE elazar העביר נושא זה מ-מדריכים - מחשבים וטכנולוגיה ב-
        • elazarE elazar העביר נושא זה מ-איזור נסיון לצוות פיקוח (ארגז חול) ב-
        • ג גגגג התייחס לנושא זה ב

        • התחברות

        • אין לך חשבון עדיין? הרשמה

        • התחברו או הירשמו כדי לחפש.
        • פוסט ראשון
          פוסט אחרון
        0
        • חוקי הפורום
        • לא נפתר
        • משתמשים
        • חיפוש גוגל בפורום
        • צור קשר