שאלה | פגשתם פעם טעות 'הקלדה' של AI?
-
@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
@מים-אחרונים אם אתה רוצה המחשה לזה שהמודל לא יודע מה הוא עושה,
פשוט תשאל אותו כמה מילים את עומד לומר בתגובה שלך,עכשיו המודל בבעיה בגלל שאין לא מושג מה עומד לקרות כי הוא לא גמר את המשפט כאשר הוא אמר את המספר
הכול קור ה בזמן אמת.(כמובן במודלי חשיבה זה לא יעבוד אבל הרעיון הובן.)
לחידוד העניין: כאשר מבצעים שיחה מתמשכת בצ'אט, המודל בכלל לא "זוכר" את תחילת השיחה. בכל פעם ששולחים הודעה חדשה, המודל מקבל את ההודעה הזו + כל ההודעות הקודמות, זה בערך כמו להעלות לו בשיחה קובץ עם היסטוריה של כל השיחה הקודמת
במילים אחרות: המודל חייב לנסות להסביר את מה שהוא אמר לפני, פשוט כי ככה אמרו לו שהוא אמר, לא בגלל שהוא באמת יודע
@NH.LOCAL כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
לחידוד העניין: כאשר מבצעים שיחה מתמשכת בצ'אט, המודל בכלל לא "זוכר" את תחילת השיחה. בכל פעם ששולחים הודעה חדשה, המודל מקבל את ההודעה הזו + כל ההודעות הקודמות, זה בערך כמו להעלות לו בשיחה קובץ עם היסטוריה של כל השיחה הקודמת
במילים אחרות: המודל חייב לנסות להסביר את מה שהוא אמר לפני, פשוט כי ככה אמרו לו שהוא אמר, לא בגלל שהוא באמת יודע
באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...
-
@NH.LOCAL כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
לחידוד העניין: כאשר מבצעים שיחה מתמשכת בצ'אט, המודל בכלל לא "זוכר" את תחילת השיחה. בכל פעם ששולחים הודעה חדשה, המודל מקבל את ההודעה הזו + כל ההודעות הקודמות, זה בערך כמו להעלות לו בשיחה קובץ עם היסטוריה של כל השיחה הקודמת
במילים אחרות: המודל חייב לנסות להסביר את מה שהוא אמר לפני, פשוט כי ככה אמרו לו שהוא אמר, לא בגלל שהוא באמת יודע
באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...
@א.מ.ד. כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...
הוא קצת יתבלבל ויתפתל אבל זה לא באמת יפרוץ אותו. אתה יכול לנסות ב-ai studio
-
@NH.LOCAL למען האמת עוד דבר מעניין עם קונטקסטים של ai,
כול מי שהריץ מודל מקומי יודע שבעיקרון אפשר להעלות את הקונטקסט לרמות גבוהות מאוד.אלא זה מה שמעניין מודלי ai נוטים לזכור רק את ההתחלה ואת הסוף ולשכוח פרטים מהאמצע, (קצת כמונו).
לכן כאשר גוגל מראה שיש לgemini מיליון טוקנים זה לא שהוא לא יכול יותר אלא זה המקסימום שהוא עדיין יזכור ויתחשב בכול השיחה במלואה.@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
לכן כאשר גוגל מראה שיש לgemini מיליון טוקנים זה לא שהוא לא יכול יותר אלא זה המקסימום שהוא עדיין יזכור ויתחשב בכול השיחה במלואה.
ייתכן שככה זה עובד עם המודל הגולמי. בפועל בממשק הצ'אט שלהם וב-API מוסרות אוטומטית ההודעות הראשונות כשההקשר מתמלא.
-
@א.מ.ד. כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...
הוא קצת יתבלבל ויתפתל אבל זה לא באמת יפרוץ אותו. אתה יכול לנסות ב-ai studio
@NH.LOCAL כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
@א.מ.ד. כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...
הוא קצת יתבלבל ויתפתל אבל זה לא באמת יפרוץ אותו. אתה יכול לנסות ב-ai studio
איך אפשר להעלות לו הקשר שונה?
-
@NH.LOCAL כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
לחידוד העניין: כאשר מבצעים שיחה מתמשכת בצ'אט, המודל בכלל לא "זוכר" את תחילת השיחה. בכל פעם ששולחים הודעה חדשה, המודל מקבל את ההודעה הזו + כל ההודעות הקודמות, זה בערך כמו להעלות לו בשיחה קובץ עם היסטוריה של כל השיחה הקודמת
במילים אחרות: המודל חייב לנסות להסביר את מה שהוא אמר לפני, פשוט כי ככה אמרו לו שהוא אמר, לא בגלל שהוא באמת יודע
באמת חשבתי אם יעבוד להעלות ל-API של המודל הקשר שבו הוא כביכול חופשי ומספר על הכל בלי צנזורה וכו', כשההודעה האחרונה היא שאלה אמיתית ללא צנזורה. האם הוא ינסה להגן על הקונטקסט הלא מצונזר, או ימשיך להיצמד להוראות הבטיחות? צריך לנסות...
-
@א.מ.ד. ההוראות בטיחות בדרך כלל לא מסתמכות רק על שיקול הדעת של המודל.
לפעמים יש עוד מודלים שעוברים על הקלט ועל הפלט.כלומר הsystem promt בדרך כלל מתווסף להודעה לך כחלק מההודעה.
אחרת המודל לא היה יודע איזה מודל הוא ושל איזה חברה וכו'.@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
לפעמים יש עוד מודלים שעוברים על הקלט ועל הפלט.
אתה צודק! גוגל אימנה מודלים ייעודיים, עכשיו אני נזכר...
@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
כלומר הsystem promt בדרך כלל מתווסף להודעה לך כחלק מההודעה.
אחרת המודל לא היה יודע איזה מודל הוא ושל איזה חברה וכו'.לא הבנתי מה אתה מתכוון... אני מתכוון להקשר, לא להוראות מערכת...
-
@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
לפעמים יש עוד מודלים שעוברים על הקלט ועל הפלט.
אתה צודק! גוגל אימנה מודלים ייעודיים, עכשיו אני נזכר...
@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
כלומר הsystem promt בדרך כלל מתווסף להודעה לך כחלק מההודעה.
אחרת המודל לא היה יודע איזה מודל הוא ושל איזה חברה וכו'.לא הבנתי מה אתה מתכוון... אני מתכוון להקשר, לא להוראות מערכת...
-
@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
@א.מ.ד. אה, הבנתי שאתה מתכוון לצנזורה שבנויה כחלק מהמודל,
שזה נמצא ההוראות מערכת.צנזורה אמיתית נמצאת בתוך נתוני האימון של המודל עצמו, גם אם הוראות המערכת אומרות לו הפוך. אתה יכול לבדוק את זה עם מודל מקומי. נפוצים מודלים פתוחים ללא צנזורה - שעברו אימון נוסף שפותח את הצנזורה, או לחילופין אומנו מחדש על סט הנתונים ללא נתוני הבטיחות.
-
@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
@א.מ.ד. אה, הבנתי שאתה מתכוון לצנזורה שבנויה כחלק מהמודל,
שזה נמצא ההוראות מערכת.צנזורה אמיתית נמצאת בתוך נתוני האימון של המודל עצמו, גם אם הוראות המערכת אומרות לו הפוך. אתה יכול לבדוק את זה עם מודל מקומי. נפוצים מודלים פתוחים ללא צנזורה - שעברו אימון נוסף שפותח את הצנזורה, או לחילופין אומנו מחדש על סט הנתונים ללא נתוני הבטיחות.
@א.מ.ד. נכון.
אבל לא מדויק הסיבה שלדוג' open ai יכולים לשנות את הרמת "בטיחות" של המודלים שלהם כול יומים,
זה בגלל שהמודלים שלהם מתבססים יותר על צנזורה חיצונית (בדיקות של הקלט פלט הוראות מערכת),
ופחות על אימון של המודל עצמו.מי שמתבססים על אימון של המודל כשיטה לצנזור זה מודלים מקומיים.
אבל כן בסופו של דבר ליצור צנזורה זה תהליך מאוד מורכב עד היום לדוג' ניתן "לפרוץ" את רוב המודלים הקיימים.
-
@א.מ.ד. נכון.
אבל לא מדויק הסיבה שלדוג' open ai יכולים לשנות את הרמת "בטיחות" של המודלים שלהם כול יומים,
זה בגלל שהמודלים שלהם מתבססים יותר על צנזורה חיצונית (בדיקות של הקלט פלט הוראות מערכת),
ופחות על אימון של המודל עצמו.מי שמתבססים על אימון של המודל כשיטה לצנזור זה מודלים מקומיים.
אבל כן בסופו של דבר ליצור צנזורה זה תהליך מאוד מורכב עד היום לדוג' ניתן "לפרוץ" את רוב המודלים הקיימים.
@cfopuser כתב בשאלה | פגשתם פעם טעות 'הקלדה' של AI?:
@א.מ.ד. נכון.
אבל לא מדויק הסיבה שלדוג' open ai יכולים לשנות את הרמת "בטיחות" של המודלים שלהם כול יומים,
זה בגלל שהמודלים שלהם מתבססים יותר על צנזורה חיצונית (בדיקות של הקלט פלט הוראות מערכת),
ופחות על אימון של המודל עצמו.מי שמתבססים על אימון של המודל כשיטה לצנזור זה מודלים מקומיים.
אבל כן בסופו של דבר ליצור צנזורה זה תהליך מאוד מורכב עד היום לדוג' ניתן "לפרוץ" את רוב המודלים הקיימים.
ב-99% מהמודלים יש צנזורה מובנית שלא קשורה בכלל להנחיות המערכת.
מעבר לזה, עשויה להיות החמרה נוספת בצנזור באמצעות הנחיות מערכת או אמצעים חיצוניים אחרים, אבל הצנזורה קיימת כחלק מתהליך אימון המודל, בדיוק כמו שצורת הדיבור הבסיסית של המודל מבוססת על אימון וכוונון עדין מראש, לא רק על הנחיות מערכתבממשקי צ'אט לרוב יש הנחיות מערכת שמוסיפות הגבלות נוספות או צורות התנהגות ספציפיות