דילוג לתוכן
  • חוקי הפורום
  • פופולרי
  • לא נפתר
  • משתמשים
  • חיפוש גוגל בפורום
  • צור קשר
עיצובים
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • ברירת מחדל (ללא עיצוב (ברירת מחדל))
  • ללא עיצוב (ברירת מחדל)
כיווץ
מתמחים טופ
  1. דף הבית
  2. קטגוריות בהרצה
  3. תכנות
  4. בינה מלאכותית - AI
  5. עזרה הדדית - בינה מלאכותית
  6. שאלה | פגשתם פעם טעות 'הקלדה' של AI?

שאלה | פגשתם פעם טעות 'הקלדה' של AI?

מתוזמן נעוץ נעול הועבר עזרה הדדית - בינה מלאכותית
22 פוסטים 8 כותבים 360 צפיות 9 עוקבים
  • מהישן לחדש
  • מהחדש לישן
  • הכי הרבה הצבעות
תגובה
  • תגובה כנושא
התחברו כדי לפרסם תגובה
נושא זה נמחק. רק משתמשים עם הרשאות מתאימות יוכלו לצפות בו.
  • NH.LOCALN NH.LOCAL

    @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

    @מים-אחרונים אם אתה רוצה המחשה לזה שהמודל לא יודע מה הוא עושה,
    פשוט תשאל אותו כמה מילים את עומד לומר בתגובה שלך,

    עכשיו המודל בבעיה בגלל שאין לא מושג מה עומד לקרות כי הוא לא גמר את המשפט כאשר הוא אמר את המספר
    הכול קור ה בזמן אמת.

    (כמובן במודלי חשיבה זה לא יעבוד אבל הרעיון הובן.)

    לחידוד העניין: כאשר מבצעים שיחה מתמשכת בצ'אט, המודל בכלל לא "זוכר" את תחילת השיחה. בכל פעם ששולחים הודעה חדשה, המודל מקבל את ההודעה הזו + כל ההודעות הקודמות, זה בערך כמו להעלות לו בשיחה קובץ עם היסטוריה של כל השיחה הקודמת

    במילים אחרות: המודל חייב לנסות להסביר את מה שהוא אמר לפני, פשוט כי ככה אמרו לו שהוא אמר, לא בגלל שהוא באמת יודע

    א.מ.ד.א מנותק
    א.מ.ד.א מנותק
    א.מ.ד.
    כתב נערך לאחרונה על ידי
    #12

    @NH.LOCAL כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

    לחידוד העניין: כאשר מבצעים שיחה מתמשכת בצ'אט, המודל בכלל לא "זוכר" את תחילת השיחה. בכל פעם ששולחים הודעה חדשה, המודל מקבל את ההודעה הזו + כל ההודעות הקודמות, זה בערך כמו להעלות לו בשיחה קובץ עם היסטוריה של כל השיחה הקודמת

    במילים אחרות: המודל חייב לנסות להסביר את מה שהוא אמר לפני, פשוט כי ככה אמרו לו שהוא אמר, לא בגלל שהוא באמת יודע

    באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...

    NH.LOCALN cfopuserC 2 תגובות תגובה אחרונה
    1
    • א.מ.ד.א א.מ.ד.

      @NH.LOCAL כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

      לחידוד העניין: כאשר מבצעים שיחה מתמשכת בצ'אט, המודל בכלל לא "זוכר" את תחילת השיחה. בכל פעם ששולחים הודעה חדשה, המודל מקבל את ההודעה הזו + כל ההודעות הקודמות, זה בערך כמו להעלות לו בשיחה קובץ עם היסטוריה של כל השיחה הקודמת

      במילים אחרות: המודל חייב לנסות להסביר את מה שהוא אמר לפני, פשוט כי ככה אמרו לו שהוא אמר, לא בגלל שהוא באמת יודע

      באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...

      NH.LOCALN מנותק
      NH.LOCALN מנותק
      NH.LOCAL
      מדריכים
      כתב נערך לאחרונה על ידי
      #13

      @א.מ.ד. כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

      באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...

      הוא קצת יתבלבל ויתפתל אבל זה לא באמת יפרוץ אותו. אתה יכול לנסות ב-ai studio

      אתר הפרוייקטים החדש!
      https://nhlocal.github.io

      א.מ.ד.א תגובה 1 תגובה אחרונה
      0
      • cfopuserC cfopuser

        @NH.LOCAL למען האמת עוד דבר מעניין עם קונטקסטים של ai,
        כול מי שהריץ מודל מקומי יודע שבעיקרון אפשר להעלות את הקונטקסט לרמות גבוהות מאוד.

        אלא זה מה שמעניין מודלי ai נוטים לזכור רק את ההתחלה ואת הסוף ולשכוח פרטים מהאמצע, (קצת כמונו).
        לכן כאשר גוגל מראה שיש לgemini מיליון טוקנים זה לא שהוא לא יכול יותר אלא זה המקסימום שהוא עדיין יזכור ויתחשב בכול השיחה במלואה.

        א.מ.ד.א מנותק
        א.מ.ד.א מנותק
        א.מ.ד.
        כתב נערך לאחרונה על ידי
        #14

        @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

        לכן כאשר גוגל מראה שיש לgemini מיליון טוקנים זה לא שהוא לא יכול יותר אלא זה המקסימום שהוא עדיין יזכור ויתחשב בכול השיחה במלואה.

        ייתכן שככה זה עובד עם המודל הגולמי. בפועל בממשק הצ'אט שלהם וב-API מוסרות אוטומטית ההודעות הראשונות כשההקשר מתמלא.

        תגובה 1 תגובה אחרונה
        0
        • NH.LOCALN NH.LOCAL

          @א.מ.ד. כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

          באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...

          הוא קצת יתבלבל ויתפתל אבל זה לא באמת יפרוץ אותו. אתה יכול לנסות ב-ai studio

          א.מ.ד.א מנותק
          א.מ.ד.א מנותק
          א.מ.ד.
          כתב נערך לאחרונה על ידי
          #15

          @NH.LOCAL כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

          @א.מ.ד. כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

          באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...

          הוא קצת יתבלבל ויתפתל אבל זה לא באמת יפרוץ אותו. אתה יכול לנסות ב-ai studio

          איך אפשר להעלות לו הקשר שונה?

          תגובה 1 תגובה אחרונה
          0
          • א.מ.ד.א א.מ.ד.

            @NH.LOCAL כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

            לחידוד העניין: כאשר מבצעים שיחה מתמשכת בצ'אט, המודל בכלל לא "זוכר" את תחילת השיחה. בכל פעם ששולחים הודעה חדשה, המודל מקבל את ההודעה הזו + כל ההודעות הקודמות, זה בערך כמו להעלות לו בשיחה קובץ עם היסטוריה של כל השיחה הקודמת

            במילים אחרות: המודל חייב לנסות להסביר את מה שהוא אמר לפני, פשוט כי ככה אמרו לו שהוא אמר, לא בגלל שהוא באמת יודע

            באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...

            cfopuserC מנותק
            cfopuserC מנותק
            cfopuser
            כתב נערך לאחרונה על ידי cfopuser
            #16

            @א.מ.ד. ההוראות בטיחות בדרך כלל לא מסתמכות רק על שיקול הדעת של המודל.
            לפעמים יש עוד מודלים שעוברים על הקלט ועל הפלט.

            כלומר הsystem promt בדרך כלל מתווסף להודעה לך כחלק מההודעה.
            אחרת המודל לא היה יודע איזה מודל הוא ושל איזה חברה וכו'.

            א.מ.ד.א תגובה 1 תגובה אחרונה
            0
            • cfopuserC cfopuser

              @א.מ.ד. ההוראות בטיחות בדרך כלל לא מסתמכות רק על שיקול הדעת של המודל.
              לפעמים יש עוד מודלים שעוברים על הקלט ועל הפלט.

              כלומר הsystem promt בדרך כלל מתווסף להודעה לך כחלק מההודעה.
              אחרת המודל לא היה יודע איזה מודל הוא ושל איזה חברה וכו'.

              א.מ.ד.א מנותק
              א.מ.ד.א מנותק
              א.מ.ד.
              כתב נערך לאחרונה על ידי
              #17

              @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

              לפעמים יש עוד מודלים שעוברים על הקלט ועל הפלט.

              אתה צודק! גוגל אימנה מודלים ייעודיים, עכשיו אני נזכר...

              @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

              כלומר הsystem promt בדרך כלל מתווסף להודעה לך כחלק מההודעה.
              אחרת המודל לא היה יודע איזה מודל הוא ושל איזה חברה וכו'.

              לא הבנתי מה אתה מתכוון... אני מתכוון להקשר, לא להוראות מערכת...

              cfopuserC תגובה 1 תגובה אחרונה
              0
              • א.מ.ד.א א.מ.ד.

                @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

                לפעמים יש עוד מודלים שעוברים על הקלט ועל הפלט.

                אתה צודק! גוגל אימנה מודלים ייעודיים, עכשיו אני נזכר...

                @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

                כלומר הsystem promt בדרך כלל מתווסף להודעה לך כחלק מההודעה.
                אחרת המודל לא היה יודע איזה מודל הוא ושל איזה חברה וכו'.

                לא הבנתי מה אתה מתכוון... אני מתכוון להקשר, לא להוראות מערכת...

                cfopuserC מנותק
                cfopuserC מנותק
                cfopuser
                כתב נערך לאחרונה על ידי cfopuser
                #18

                @א.מ.ד. אה, הבנתי שאתה מתכוון לצנזורה שבנויה כחלק מהמודל,
                שזה נמצא ההוראות מערכת.

                א.מ.ד.א תגובה 1 תגובה אחרונה
                0
                • cfopuserC cfopuser

                  @א.מ.ד. אה, הבנתי שאתה מתכוון לצנזורה שבנויה כחלק מהמודל,
                  שזה נמצא ההוראות מערכת.

                  א.מ.ד.א מנותק
                  א.מ.ד.א מנותק
                  א.מ.ד.
                  כתב נערך לאחרונה על ידי
                  #19

                  @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

                  @א.מ.ד. אה, הבנתי שאתה מתכוון לצנזורה שבנויה כחלק מהמודל,
                  שזה נמצא ההוראות מערכת.

                  צנזורה אמיתית נמצאת בתוך נתוני האימון של המודל עצמו, גם אם הוראות המערכת אומרות לו הפוך. אתה יכול לבדוק את זה עם מודל מקומי. נפוצים מודלים פתוחים ללא צנזורה - שעברו אימון נוסף שפותח את הצנזורה, או לחילופין אומנו מחדש על סט הנתונים ללא נתוני הבטיחות.

                  cfopuserC תגובה 1 תגובה אחרונה
                  1
                  • א.מ.ד.א א.מ.ד.

                    @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

                    @א.מ.ד. אה, הבנתי שאתה מתכוון לצנזורה שבנויה כחלק מהמודל,
                    שזה נמצא ההוראות מערכת.

                    צנזורה אמיתית נמצאת בתוך נתוני האימון של המודל עצמו, גם אם הוראות המערכת אומרות לו הפוך. אתה יכול לבדוק את זה עם מודל מקומי. נפוצים מודלים פתוחים ללא צנזורה - שעברו אימון נוסף שפותח את הצנזורה, או לחילופין אומנו מחדש על סט הנתונים ללא נתוני הבטיחות.

                    cfopuserC מנותק
                    cfopuserC מנותק
                    cfopuser
                    כתב נערך לאחרונה על ידי cfopuser
                    #20

                    @א.מ.ד. נכון.
                    אבל לא מדויק הסיבה שלדוג' open ai יכולים לשנות את הרמת "בטיחות" של המודלים שלהם כול יומים,
                    זה בגלל שהמודלים שלהם מתבססים יותר על צנזורה חיצונית (בדיקות של הקלט פלט הוראות מערכת),
                    ופחות על אימון של המודל עצמו.

                    מי שמתבססים על אימון של המודל כשיטה לצנזור זה מודלים מקומיים.

                    אבל כן בסופו של דבר ליצור צנזורה זה תהליך מאוד מורכב עד היום לדוג' ניתן "לפרוץ" את רוב המודלים הקיימים.

                    NH.LOCALN תגובה 1 תגובה אחרונה
                    0
                    • cfopuserC cfopuser

                      @א.מ.ד. נכון.
                      אבל לא מדויק הסיבה שלדוג' open ai יכולים לשנות את הרמת "בטיחות" של המודלים שלהם כול יומים,
                      זה בגלל שהמודלים שלהם מתבססים יותר על צנזורה חיצונית (בדיקות של הקלט פלט הוראות מערכת),
                      ופחות על אימון של המודל עצמו.

                      מי שמתבססים על אימון של המודל כשיטה לצנזור זה מודלים מקומיים.

                      אבל כן בסופו של דבר ליצור צנזורה זה תהליך מאוד מורכב עד היום לדוג' ניתן "לפרוץ" את רוב המודלים הקיימים.

                      NH.LOCALN מנותק
                      NH.LOCALN מנותק
                      NH.LOCAL
                      מדריכים
                      כתב נערך לאחרונה על ידי NH.LOCAL
                      #21

                      @cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:

                      @א.מ.ד. נכון.
                      אבל לא מדויק הסיבה שלדוג' open ai יכולים לשנות את הרמת "בטיחות" של המודלים שלהם כול יומים,
                      זה בגלל שהמודלים שלהם מתבססים יותר על צנזורה חיצונית (בדיקות של הקלט פלט הוראות מערכת),
                      ופחות על אימון של המודל עצמו.

                      מי שמתבססים על אימון של המודל כשיטה לצנזור זה מודלים מקומיים.

                      אבל כן בסופו של דבר ליצור צנזורה זה תהליך מאוד מורכב עד היום לדוג' ניתן "לפרוץ" את רוב המודלים הקיימים.

                      ב-99% מהמודלים יש צנזורה מובנית שלא קשורה בכלל להנחיות המערכת.
                      מעבר לזה, עשויה להיות החמרה נוספת בצנזור באמצעות הנחיות מערכת או אמצעים חיצוניים אחרים, אבל הצנזורה קיימת כחלק מתהליך אימון המודל, בדיוק כמו שצורת הדיבור הבסיסית של המודל מבוססת על אימון וכוונון עדין מראש, לא רק על הנחיות מערכת

                      בממשקי צ'אט לרוב יש הנחיות מערכת שמוסיפות הגבלות נוספות או צורות התנהגות ספציפיות

                      אתר הפרוייקטים החדש!
                      https://nhlocal.github.io

                      תגובה 1 תגובה אחרונה
                      2
                      • ע עומר

                        e849fc5c-369d-4d93-b969-6e8169253b29-image.png
                        יש פה 'מייבין' שיכול להסביר איך זה יכול לקרות?

                        אורייא מנותק
                        אורייא מנותק
                        אוריי
                        מדריכים
                        כתב נערך לאחרונה על ידי אוריי
                        #22

                        @עומר קרה לי בעבר דבר כזה,
                        וכאשר ביטלתי את התוסף תרגום אוטומטי לעברית הכל הסתדר. (אפי' על אותו הפוסט שהוא כבר כתב: כלומר שבאמת הוא כתב נכון אבל התרגום משנה את זה)

                        כאן

                        תגובה 1 תגובה אחרונה
                        1

                        • התחברות

                        • אין לך חשבון עדיין? הרשמה

                        • התחברו או הירשמו כדי לחפש.
                        • פוסט ראשון
                          פוסט אחרון
                        0
                        • חוקי הפורום
                        • פופולרי
                        • לא נפתר
                        • משתמשים
                        • חיפוש גוגל בפורום
                        • צור קשר