דילוג לתוכן
  • חוקי הפורום
  • פופולרי
  • לא נפתר
  • משתמשים
  • חיפוש גוגל בפורום
  • צור קשר
עיצובים
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • ברירת מחדל (ללא עיצוב (ברירת מחדל))
  • ללא עיצוב (ברירת מחדל)
כיווץ
מתמחים טופ
  1. דף הבית
  2. קטגוריות בהרצה
  3. תכנות
  4. בינה מלאכותית - AI
  5. עזרה הדדית - בינה מלאכותית
  6. שיתוף | תקרת הזכוכית של עולם הAI התפוצצה????

שיתוף | תקרת הזכוכית של עולם הAI התפוצצה????

מתוזמן נעוץ נעול הועבר עזרה הדדית - בינה מלאכותית
44 פוסטים 15 כותבים 1.5k צפיות 20 עוקבים
  • מהישן לחדש
  • מהחדש לישן
  • הכי הרבה הצבעות
תגובה
  • תגובה כנושא
התחברו כדי לפרסם תגובה
נושא זה נמחק. רק משתמשים עם הרשאות מתאימות יוכלו לצפות בו.
  • א.מ.ד.א מנותק
    א.מ.ד.א מנותק
    א.מ.ד.
    כתב נערך לאחרונה על ידי
    #35

    גם כמות המיילים שקיבלתי מאז שנרשמתי מחשידה. כבר קיבלתי 3 מיילים בניסוחים שונים שתודה שנרשמתי וכו'...

    מפתח אפליקציות אנדרואיד
    em0548438097@gmail.com

    תגובה 1 תגובה אחרונה
    1
    • א.מ.ד.א א.מ.ד.

      @המלאך נשמע מאוד מוזר. מילא להצליח לפתור בעיה בארכיטקטורת הטרנספורמר הקלאסית. אבל שהאיכות תעלה על כל המודלים המובילים, בלי שיש להם אפילו מאית מכוח החישוב שיש לשחקנים הגדולים, אין להם את הדאטה העצום, אין להם את המדענים הגדולים בתחום, ואין להם מימון לדבר הזה... זה נראה זיוף.
      ראיתי כבר כמה פעמים בחודשים האחרונים דברים בסגנון, לדוגמא סטארטאפ אחד שטען שהצליח לפתח מודל שיכול להתרחב לפי דרישות המשימה או משהו ברעיון, או חברה שהעלתה אלפי מודלים ל-HF עד שאחד מרדיט גילה שאלו העתקים מדוייקים של מודלים אחרים, אפילו עם אותו HASH.
      עוד דבר מוזר זה שבדרך כלל בפריצות דרך כמו בקלוד מיתוס החברה מאפשרת גישה מגבלת למספר מצומצם של אנשי מקצוע וידוענים בתחום שמנסים את הטכנולוגיה החדשה, ורק אז זה מתפרסם. הפעם חוץ מהפרסום באתר אין שום מקור שזה נכון...

      המלאךה מנותק
      המלאךה מנותק
      המלאך
      כתב נערך לאחרונה על ידי
      #36
      פוסט זה נמחק!
      תגובה 1 תגובה אחרונה
      0
      • P מחובר
        P מחובר
        pythoni
        כתב נערך לאחרונה על ידי
        #37

        זה לא סטארט אפ חדש ומשהו גאוני כול כך זה פשוט מודל עם תהודה דליליה שזה אומר שהקונטקסט כמעט לינארי כמו ממבה שזה לינארי אך כאן זה לא לינארי לגמרי פשוט לא כול מחושבים אלא רק כאלה שזהו כחשובים ובנוסף בנו את זה לקוד המודל תוכנן מראש לפעול על בסיסי קוד ולא על טקסט פרוזה רציף. קוד תוכנה מתאפיין במבנה מודולרי, היררכי ולוגי (פונקציות, מחלקות, קריאות מקומיות). מבנה זה מאפשר למנגנונים דלילים לאתר את הקשרים הנדרשים ביעילות רבה יותר, שכן התלות בין חלקי הקוד מוגדרת היטב ואינה מפוזרת באופן אקראי על פני מיליוני שורות

        המלאךה י. פל.י J י 4 תגובות תגובה אחרונה
        0
        • P pythoni

          זה לא סטארט אפ חדש ומשהו גאוני כול כך זה פשוט מודל עם תהודה דליליה שזה אומר שהקונטקסט כמעט לינארי כמו ממבה שזה לינארי אך כאן זה לא לינארי לגמרי פשוט לא כול מחושבים אלא רק כאלה שזהו כחשובים ובנוסף בנו את זה לקוד המודל תוכנן מראש לפעול על בסיסי קוד ולא על טקסט פרוזה רציף. קוד תוכנה מתאפיין במבנה מודולרי, היררכי ולוגי (פונקציות, מחלקות, קריאות מקומיות). מבנה זה מאפשר למנגנונים דלילים לאתר את הקשרים הנדרשים ביעילות רבה יותר, שכן התלות בין חלקי הקוד מוגדרת היטב ואינה מפוזרת באופן אקראי על פני מיליוני שורות

          המלאךה מנותק
          המלאךה מנותק
          המלאך
          כתב נערך לאחרונה על ידי המלאך
          #38

          @pythoni מה הקשר?
          1 - Sparse attention זה משפחה של רעיונות.
          לא נכון להגיד שאין חדש
          2 - בניגוד למצב זה למרות שמשתמש ב attention, עדיין נשאר כsub-quadratic ומוגדר מודל מllm לא משהו רעיוני.
          3 - גם אם נניח וזה קוד וקוד יותר קל לחישוב, זה לא נותן הפרש בין 2 מליון לשרתי המפלצת של גוגל ל12!!! מליון טוקנים.
          זה אומר חישוב היסטוריה וprים..
          זה דבר שלגוגל עם כל המשאבים יקח כמויות של זמן חישוב ועלויות חישוב מפלצתיות.
          להזכירך הם טוענים למהירות של פי 52! יותר מהר,
          כמו"כ הם טוענים להוזלה משמעותית בעלויות חישוב.
          זה שינוי יותר גדול.
          כן.
          לדעתי שינוי מלא של הטרנספורמר.
          4 - אין מצב להסתמך רק על הרעיון הזה.
          באגים [כידוע לכל מתכנת בר בי רב] הם דבר מאוד דינמי. הם יכולים להיות בקצוות של ההקשר - איך מודל שהם מצהירים שחכם ברמה של קלוד אופוס 4.7 וgpt 5.5 יוכל שלא לדעת למה באגים קיימים כי הוא לא מחשב אותם לינארית?
          אלא אם כן.
          אתה צודק.
          וזה באמת הגישה של @א.מ.ד. ו @nh.local .
          כי זה אומר בגדול שהם [החברה כן? לא אמד ואן איץ' לוקל 🙂😉] חירטטו את השכל.
          אבל להגיד שזה הגישה וזה עובד? לא נכון בכלל.

          P תגובה 1 תגובה אחרונה
          1
          • P pythoni

            זה לא סטארט אפ חדש ומשהו גאוני כול כך זה פשוט מודל עם תהודה דליליה שזה אומר שהקונטקסט כמעט לינארי כמו ממבה שזה לינארי אך כאן זה לא לינארי לגמרי פשוט לא כול מחושבים אלא רק כאלה שזהו כחשובים ובנוסף בנו את זה לקוד המודל תוכנן מראש לפעול על בסיסי קוד ולא על טקסט פרוזה רציף. קוד תוכנה מתאפיין במבנה מודולרי, היררכי ולוגי (פונקציות, מחלקות, קריאות מקומיות). מבנה זה מאפשר למנגנונים דלילים לאתר את הקשרים הנדרשים ביעילות רבה יותר, שכן התלות בין חלקי הקוד מוגדרת היטב ואינה מפוזרת באופן אקראי על פני מיליוני שורות

            י. פל.י מנותק
            י. פל.י מנותק
            י. פל.
            כתב נערך לאחרונה על ידי
            #39

            @pythoni
            זה ג׳מיני, נכון?

            גאה להיות חלק:
            otzaria.org

            NH.LOCALN תגובה 1 תגובה אחרונה
            0
            • י. פל.י י. פל.

              @pythoni
              זה ג׳מיני, נכון?

              NH.LOCALN מנותק
              NH.LOCALN מנותק
              NH.LOCAL
              מדריכים
              כתב נערך לאחרונה על ידי NH.LOCAL
              #40

              @י.-פל. כתב בשיתוף | תקרת הזכוכית של עולם הAI התפוצצה????:

              @pythoni
              זה ג׳מיני, נכון?

              זה בוודאי לא ג'מיני ככתבו וכלשונו, ג'מיני היה עורך ומנסח את זה בצורה הרבה יותר מתוחכמת ומפוצצת
              (אם כי יתכן שזו העתקה וניסוח מחדש באופן חלקי)

              אתר הפרוייקטים שלי!

              תגובה 1 תגובה אחרונה
              0
              • P pythoni

                זה לא סטארט אפ חדש ומשהו גאוני כול כך זה פשוט מודל עם תהודה דליליה שזה אומר שהקונטקסט כמעט לינארי כמו ממבה שזה לינארי אך כאן זה לא לינארי לגמרי פשוט לא כול מחושבים אלא רק כאלה שזהו כחשובים ובנוסף בנו את זה לקוד המודל תוכנן מראש לפעול על בסיסי קוד ולא על טקסט פרוזה רציף. קוד תוכנה מתאפיין במבנה מודולרי, היררכי ולוגי (פונקציות, מחלקות, קריאות מקומיות). מבנה זה מאפשר למנגנונים דלילים לאתר את הקשרים הנדרשים ביעילות רבה יותר, שכן התלות בין חלקי הקוד מוגדרת היטב ואינה מפוזרת באופן אקראי על פני מיליוני שורות

                J מנותק
                J מנותק
                jack
                כתב נערך לאחרונה על ידי
                #41

                @pythoni מה זה כל הממבו גמבו שגיבבת?!

                אני תוהה האם מדובר בB-או-T רח"ל? (אם אתה אנושי אתה תבין את הקשר אם לא סביר להניח שהמודל שפה שהשתמשת בו לא יבין.)

                P תגובה 1 תגובה אחרונה
                0
                • המלאךה המלאך

                  @pythoni מה הקשר?
                  1 - Sparse attention זה משפחה של רעיונות.
                  לא נכון להגיד שאין חדש
                  2 - בניגוד למצב זה למרות שמשתמש ב attention, עדיין נשאר כsub-quadratic ומוגדר מודל מllm לא משהו רעיוני.
                  3 - גם אם נניח וזה קוד וקוד יותר קל לחישוב, זה לא נותן הפרש בין 2 מליון לשרתי המפלצת של גוגל ל12!!! מליון טוקנים.
                  זה אומר חישוב היסטוריה וprים..
                  זה דבר שלגוגל עם כל המשאבים יקח כמויות של זמן חישוב ועלויות חישוב מפלצתיות.
                  להזכירך הם טוענים למהירות של פי 52! יותר מהר,
                  כמו"כ הם טוענים להוזלה משמעותית בעלויות חישוב.
                  זה שינוי יותר גדול.
                  כן.
                  לדעתי שינוי מלא של הטרנספורמר.
                  4 - אין מצב להסתמך רק על הרעיון הזה.
                  באגים [כידוע לכל מתכנת בר בי רב] הם דבר מאוד דינמי. הם יכולים להיות בקצוות של ההקשר - איך מודל שהם מצהירים שחכם ברמה של קלוד אופוס 4.7 וgpt 5.5 יוכל שלא לדעת למה באגים קיימים כי הוא לא מחשב אותם לינארית?
                  אלא אם כן.
                  אתה צודק.
                  וזה באמת הגישה של @א.מ.ד. ו @nh.local .
                  כי זה אומר בגדול שהם [החברה כן? לא אמד ואן איץ' לוקל 🙂😉] חירטטו את השכל.
                  אבל להגיד שזה הגישה וזה עובד? לא נכון בכלל.

                  P מחובר
                  P מחובר
                  pythoni
                  כתב נערך לאחרונה על ידי
                  #42

                  @המלאך זה נכון ולא נכון
                  1 מה שהם באמת הצליחו לעשות זה לקחת מודל שהוא לא SSM אלא Attention אך שאינו מחשב את כול האסימונים אלא מזהה את האלה שנראים לו רלונטים וביחד עם דחיסה אגרסיבית של הזיכרון KV בכ90 אחוז כך יש הרבה פחות קריאות זיכרון ופחות תעבורה בין מגשי עיבוד שיוצר צואר בקבוק ואז פחות מהירות לעומת מודל זה שהוא עובד כמעט כמו SSM

                  2 זה נכון שזה לא ברמת מודלי חזית כמו קלוד אך הוא יכול לשמש כסורק לפרויקטים שלמים למצוא את החלק הבעיתי ומשם לדוגמא אפשר לשלוח לקלוד ומה שקיבל בציונים הגבוהים)יחסית זה בגלל שבמבחני איתור באגים הוא פשוט סורק מהר בהתיחסות למה שצריך בעוד מודלים גדולים מחשבים בצורה רביעית מלאה וכבדה אך בפתרון בעיות אין ספק שקלוד יהיה פי 2 טוב
                  @י.-פל.

                  אני כתבתי את התשובה אך היה מבולבל וקשה להבנה אז העברתי לגימיני את סוף התשובה והא ניסח את הסוף )חצי חצי😉

                  תגובה 1 תגובה אחרונה
                  0
                  • J jack

                    @pythoni מה זה כל הממבו גמבו שגיבבת?!

                    אני תוהה האם מדובר בB-או-T רח"ל? (אם אתה אנושי אתה תבין את הקשר אם לא סביר להניח שהמודל שפה שהשתמשת בו לא יבין.)

                    P מחובר
                    P מחובר
                    pythoni
                    כתב נערך לאחרונה על ידי
                    #43

                    @jack חפש בHugging Face את המודלMamba שהוא מסוג SSM )לינארי ) בניגוד למודלים הרגילים שהם מסוג Transformer

                    אלא אם כן אתה AI ללא גישה לרשת

                    ההבדל הTransformer
                    אם הכנסתי 100 מילים הוא משווה כל מילה מתוך ה-100 לכל אחת מ-99 המילים האחרות.כמות פעולות: בערך 100 × 100 10,000= השוואות.

                    הלינארי פשוט יחשב 100 מילים

                    תגובה 1 תגובה אחרונה
                    0
                    • P pythoni

                      זה לא סטארט אפ חדש ומשהו גאוני כול כך זה פשוט מודל עם תהודה דליליה שזה אומר שהקונטקסט כמעט לינארי כמו ממבה שזה לינארי אך כאן זה לא לינארי לגמרי פשוט לא כול מחושבים אלא רק כאלה שזהו כחשובים ובנוסף בנו את זה לקוד המודל תוכנן מראש לפעול על בסיסי קוד ולא על טקסט פרוזה רציף. קוד תוכנה מתאפיין במבנה מודולרי, היררכי ולוגי (פונקציות, מחלקות, קריאות מקומיות). מבנה זה מאפשר למנגנונים דלילים לאתר את הקשרים הנדרשים ביעילות רבה יותר, שכן התלות בין חלקי הקוד מוגדרת היטב ואינה מפוזרת באופן אקראי על פני מיליוני שורות

                      י מנותק
                      י מנותק
                      יוסלה קניקובסקי
                      כתב נערך לאחרונה על ידי
                      #44

                      @pythoni כתב בשיתוף | תקרת הזכוכית של עולם הAI התפוצצה????:

                      זה לא סטארט אפ חדש ומשהו גאוני כול כך זה פשוט מודל עם תהודה דליליה שזה אומר שהקונטקסט כמעט לינארי כמו ממבה שזה לינארי אך כאן זה לא לינארי לגמרי פשוט לא כול מחושבים אלא רק כאלה שזהו כחשובים ובנוסף בנו את זה לקוד המודל תוכנן מראש לפעול על בסיסי קוד ולא על טקסט פרוזה רציף. קוד תוכנה מתאפיין במבנה מודולרי, היררכי ולוגי (פונקציות, מחלקות, קריאות מקומיות). מבנה זה מאפשר למנגנונים דלילים לאתר את הקשרים הנדרשים ביעילות רבה יותר, שכן התלות בין חלקי הקוד מוגדרת היטב ואינה מפוזרת באופן אקראי על פני מיליוני שורות

                      פרשת סוקל או גאונות טהורה? 🤣🤣

                      תגובה 1 תגובה אחרונה
                      2

                      • התחברות

                      • אין לך חשבון עדיין? הרשמה

                      • התחברו או הירשמו כדי לחפש.
                      • פוסט ראשון
                        פוסט אחרון
                      0
                      • חוקי הפורום
                      • פופולרי
                      • לא נפתר
                      • משתמשים
                      • חיפוש גוגל בפורום
                      • צור קשר