דילוג לתוכן
  • חוקי הפורום
  • פופולרי
  • לא נפתר
  • משתמשים
  • חיפוש גוגל בפורום
  • צור קשר
עיצובים
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • ברירת מחדל (ללא עיצוב (ברירת מחדל))
  • ללא עיצוב (ברירת מחדל)
כיווץ
מתמחים טופ
  1. דף הבית
  2. קטגוריות בהרצה
  3. תכנות
  4. בינה מלאכותית - AI
  5. עזרה הדדית - בינה מלאכותית
  6. מדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.

מדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.

מתוזמן נעוץ נעול הועבר עזרה הדדית - בינה מלאכותית
65 פוסטים 17 כותבים 979 צפיות 21 עוקבים
  • מהישן לחדש
  • מהחדש לישן
  • הכי הרבה הצבעות
תגובה
  • תגובה כנושא
התחברו כדי לפרסם תגובה
נושא זה נמחק. רק משתמשים עם הרשאות מתאימות יוכלו לצפות בו.
  • א מנותק
    א מנותק
    אורי
    כתב נערך לאחרונה על ידי
    #12

    @א.מ.ד. אלוף! ישר כוח גדול!

    תוכל להוסיף הסבר על NPU. איך אפשר לרתום את זה להרצה מהירה יותר של מודלים אופליין?
    לדוג', המחשב שלי מגיע עם 12TOPS, מה שזה לא אומר...

    תגובה 1 תגובה אחרונה
    0
    • ע מחובר
      ע מחובר
      עידו300
      כתב נערך לאחרונה על ידי
      #13

      המפרט שלי הוא:
      מעבד Intel(R) Core(TM) i7-4600U CPU @ 2.10GHz 2.70 GHz
      RAM מותקן ‏‏‎16.0 GB
      אחסון 466 GB SSD Samsung SSD 870 EVO 500GB
      כרטיס גרפיקה Intel(R) HD Graphics Family (113 MB)

      התקנתי את הgemma-4-e4b והוא איטי להחריד, לקח לו דקה וחצי לענות על "הי"!
      כך אמור להיות? יש המלצה לLLM אחר?

      cfopuserC א.מ.ד.א 2 תגובות תגובה אחרונה
      0
      • ע עידו300

        המפרט שלי הוא:
        מעבד Intel(R) Core(TM) i7-4600U CPU @ 2.10GHz 2.70 GHz
        RAM מותקן ‏‏‎16.0 GB
        אחסון 466 GB SSD Samsung SSD 870 EVO 500GB
        כרטיס גרפיקה Intel(R) HD Graphics Family (113 MB)

        התקנתי את הgemma-4-e4b והוא איטי להחריד, לקח לו דקה וחצי לענות על "הי"!
        כך אמור להיות? יש המלצה לLLM אחר?

        cfopuserC מנותק
        cfopuserC מנותק
        cfopuser
        כתב נערך לאחרונה על ידי
        #14

        @עידו300 איזה דור ram זאת השאלה?

        ע 2 תגובות תגובה אחרונה
        0
        • cfopuserC cfopuser

          @עידו300 איזה דור ram זאת השאלה?

          ע מחובר
          ע מחובר
          עידו300
          כתב נערך לאחרונה על ידי עידו300
          #15

          @cfopuser איך יודעים?

          תגובה 1 תגובה אחרונה
          0
          • א מחובר
            א מחובר
            אהרן
            כתב נערך לאחרונה על ידי
            #16

            לצורך סוכן מקומי גמיני כתב לי להשתמש בOpenClaw ולא בLM Studio, זה נכון? [אני לא מידי מבין בעניין, יתכן שזה דברים פשוטים]

            א.מ.ד.א תגובה 1 תגובה אחרונה
            0
            • ע מחובר
              ע מחובר
              עידו300
              כתב נערך לאחרונה על ידי
              #17

              ניסיתי להשתמש בו בפונקציה של הRAG ונתתי הנחיית מערכת כזאת - תענה רק בעברית ורק מהקובץ המצורף, תצמד למידע המצורף ואל תענה שום דבר שלא קשור אליו.

              בשביל לתת לו קודם להעלות את הקובץ ולשמור אותו במסד נתונים שאמר @א.מ.ד. פשוט צירפתי קובץ ולא כתבתי שאלה, המודל הסתבך מעט וכתב מונולוג ארוך - באנגלית!

              The user has provided a list of citations and an empty "User Query". Since there is no question or specific request in the "User Query", I cannot use the citations to provide a direct answer. Following the instructions, I must only use the provided information if it's relevant, otherwise respond without them (or respond generally). Given the lack of query context, I should acknowledge this limitation while adhering to the rule of not generating irrelevant content.

              However, based on previous interactions where I responded generally ("היי! 👋 מה שלומך? במה אני יכול/ה לעזור לך היום? 😊"), and since the provided citations are detailed bibliographic entries (related to "משנב המבואר" ו-"חומש אור החיים המבואר"), a general greeting might be safe if I cannot process the citations.

              Since the instructions state: "תענה רק בעברית ורק מהקובץ המצורף, תצמד למידע המצורף ואל תענה שום דבר שלא קשור אליו", and the user query is empty, responding with a general greeting goes against this rule unless the citations themselves imply a need for greeting/context.

              Given that I must stick only to the provided files if they are relevant, and there is no question, I cannot construct an answer based on relevance. Therefore, I should indicate that I need a query. But since I cannot respond with something not in the file, this creates a paradox.

              I will re-evaluate: The initial exchange established a conversational tone. If I strictly follow "only use the files", and there's no question, I am stuck. Given the constraints and the empty query, the safest action that respects the constraint is to state that I need a query based on the provided material, but this violates "don't answer anything not related".

              I will assume the system expects me to prompt for a query using the context of what was provided (the citations) if no query is given. Since I cannot deviate from only using the file content, and the files are just citation lists, I must default to acknowledging the data structure or stating the need for input.

              Let's stick to the strict interpretation: No question -> No relevant answer derived from the provided structured data. However, as a conversational model, if I say "I can't answer", I am generating external knowledge.

              Given the pattern of previous successful turns (greeting), and the ambiguity, I will assume that in the absence of a query, I should state what is available if the user intended to ask about the citations. But this is still interpretation.

              Conclusion: The most compliant response, given an empty query and strict adherence to provided data only, is impossible. I will follow the pattern of the initial exchange as it's the least disruptive while acknowledging the lack of input context related to the citations. However, since the prompt explicitly demands reliance only on the files if they are relevant, I must treat this as an error state in the user query and ask for clarification based on the content provided, even though that means generating words not directly quoting a single citation block.

              I will break protocol slightly by asking for the question, but keep the tone highly formal/data-focused to respect the "only use file" rule contextually. (Self-correction: No, I must not break protocol).

              Since there is no user query, and the citations are merely data points without instructions on how to process them, I cannot generate a response that adheres to all rules. I will respond by stating that a question is required.

              Let's go with the safest, most neutral reply acknowledging the state: I have processed the citation data. Please provide a query referencing this information. (This still generates words outside the citations).

              Final attempt based on strict adherence: Since there is no relevant query in the provided input, I cannot generate a response using the citations.אנא ספק שאילתה כדי שאוכל להשתמש בציטוטים שסופקו.

              🤣 משעשע האמת

              כל זה לקח לו כמה דקות טובות

              תגובה 1 תגובה אחרונה
              0
              • cfopuserC cfopuser

                @עידו300 איזה דור ram זאת השאלה?

                ע מחובר
                ע מחובר
                עידו300
                כתב נערך לאחרונה על ידי
                #18

                @cfopuser DDR3

                תגובה 1 תגובה אחרונה
                0
                • ע עידו300

                  המפרט שלי הוא:
                  מעבד Intel(R) Core(TM) i7-4600U CPU @ 2.10GHz 2.70 GHz
                  RAM מותקן ‏‏‎16.0 GB
                  אחסון 466 GB SSD Samsung SSD 870 EVO 500GB
                  כרטיס גרפיקה Intel(R) HD Graphics Family (113 MB)

                  התקנתי את הgemma-4-e4b והוא איטי להחריד, לקח לו דקה וחצי לענות על "הי"!
                  כך אמור להיות? יש המלצה לLLM אחר?

                  א.מ.ד.א מחובר
                  א.מ.ד.א מחובר
                  א.מ.ד.
                  כתב נערך לאחרונה על ידי א.מ.ד.
                  #19

                  @עידו300 כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                  המפרט שלי הוא:
                  מעבד Intel(R) Core(TM) i7-4600U CPU @ 2.10GHz 2.70 GHz
                  RAM מותקן ‏‏‎16.0 GB
                  אחסון 466 GB SSD Samsung SSD 870 EVO 500GB
                  כרטיס גרפיקה Intel(R) HD Graphics Family (113 MB)

                  התקנתי את הgemma-4-e4b והוא איטי להחריד, לקח לו דקה וחצי לענות על "הי"!
                  כך אמור להיות? יש המלצה לLLM אחר?

                  יש לי חומרה בערך כמו שלך עם מעבד i5, וזה הרבה יותר מהר:
                  bb2e9bdb-8996-4229-92c2-cd54a54524a2-image.png
                  תנסה אולי להוסיף שרשורי מעבד.
                  ייתכן שמופעלת לך חשיבה עם תבנית צ'אט שגויה כך שזה נראה כאילו המודל מחכה עד שמתחיל לענות.

                  מפתח אפליקציות אנדרואיד
                  em0548438097@gmail.com

                  W ע 2 תגובות תגובה אחרונה
                  0
                  • א אהרן

                    לצורך סוכן מקומי גמיני כתב לי להשתמש בOpenClaw ולא בLM Studio, זה נכון? [אני לא מידי מבין בעניין, יתכן שזה דברים פשוטים]

                    א.מ.ד.א מחובר
                    א.מ.ד.א מחובר
                    א.מ.ד.
                    כתב נערך לאחרונה על ידי
                    #20

                    @אהרן כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                    לצורך סוכן מקומי גמיני כתב לי להשתמש בOpenClaw ולא בLM Studio, זה נכון? [אני לא מידי מבין בעניין, יתכן שזה דברים פשוטים]

                    אין קשר בין זה לזה. LM Studio הוא כלי להרצת מודלים, ו-OpenClaw הוא סוכן מקומי שיכול להתחבר למודלי ענן או למודלים מקומיים.

                    מפתח אפליקציות אנדרואיד
                    em0548438097@gmail.com

                    תגובה 1 תגובה אחרונה
                    3
                    • א.מ.ד.א א.מ.ד.

                      @עידו300 כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                      המפרט שלי הוא:
                      מעבד Intel(R) Core(TM) i7-4600U CPU @ 2.10GHz 2.70 GHz
                      RAM מותקן ‏‏‎16.0 GB
                      אחסון 466 GB SSD Samsung SSD 870 EVO 500GB
                      כרטיס גרפיקה Intel(R) HD Graphics Family (113 MB)

                      התקנתי את הgemma-4-e4b והוא איטי להחריד, לקח לו דקה וחצי לענות על "הי"!
                      כך אמור להיות? יש המלצה לLLM אחר?

                      יש לי חומרה בערך כמו שלך עם מעבד i5, וזה הרבה יותר מהר:
                      bb2e9bdb-8996-4229-92c2-cd54a54524a2-image.png
                      תנסה אולי להוסיף שרשורי מעבד.
                      ייתכן שמופעלת לך חשיבה עם תבנית צ'אט שגויה כך שזה נראה כאילו המודל מחכה עד שמתחיל לענות.

                      W מנותק
                      W מנותק
                      working.cohen
                      כתב נערך לאחרונה על ידי working.cohen
                      #21

                      @א.מ.ד.
                      קודם כל יישר כח על המדריך המושקע והיפה.
                      לא הבנתי מה הכוונה?

                      תנסה אולי להוסיף שרשורי מעבד.

                      יש לי מעבד I7 דור 8
                      וכאשר אני מריץ את המודל של גמ'ה 4 לוקח לו גם הרבה מאוד זמן (חצי דקה) לענות........

                      חובבן מקצועיח א.מ.ד.א 2 תגובות תגובה אחרונה
                      0
                      • W working.cohen

                        @א.מ.ד.
                        קודם כל יישר כח על המדריך המושקע והיפה.
                        לא הבנתי מה הכוונה?

                        תנסה אולי להוסיף שרשורי מעבד.

                        יש לי מעבד I7 דור 8
                        וכאשר אני מריץ את המודל של גמ'ה 4 לוקח לו גם הרבה מאוד זמן (חצי דקה) לענות........

                        חובבן מקצועיח מנותק
                        חובבן מקצועיח מנותק
                        חובבן מקצועי
                        כתב נערך לאחרונה על ידי
                        #22

                        @working.cohen כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                        וכאשר אני מריץ את המודל של גמ'ה 4 לוקח לו גם הרבה מאוד זמן (חצי דקה) לענות........

                        באיזה אופן אתה מריץ? (כמה ליבות מעבד תפוסות, וכד') ואגב, יש תהליך חשיבה - משהו שלמעשה מאריך את זמן התשובה.

                        @א.מ.ד. - איך מבטלים באמת את הליך החשיבה?

                        W תגובה 1 תגובה אחרונה
                        0
                        • א.מ.ד.א א.מ.ד.

                          @עידו300 כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                          המפרט שלי הוא:
                          מעבד Intel(R) Core(TM) i7-4600U CPU @ 2.10GHz 2.70 GHz
                          RAM מותקן ‏‏‎16.0 GB
                          אחסון 466 GB SSD Samsung SSD 870 EVO 500GB
                          כרטיס גרפיקה Intel(R) HD Graphics Family (113 MB)

                          התקנתי את הgemma-4-e4b והוא איטי להחריד, לקח לו דקה וחצי לענות על "הי"!
                          כך אמור להיות? יש המלצה לLLM אחר?

                          יש לי חומרה בערך כמו שלך עם מעבד i5, וזה הרבה יותר מהר:
                          bb2e9bdb-8996-4229-92c2-cd54a54524a2-image.png
                          תנסה אולי להוסיף שרשורי מעבד.
                          ייתכן שמופעלת לך חשיבה עם תבנית צ'אט שגויה כך שזה נראה כאילו המודל מחכה עד שמתחיל לענות.

                          ע מחובר
                          ע מחובר
                          עידו300
                          כתב נערך לאחרונה על ידי
                          #23

                          @א.מ.ד. כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                          תנסה אולי להוסיף שרשורי מעבד.

                          איך עושים את זה?

                          תגובה 1 תגובה אחרונה
                          0
                          • חובבן מקצועיח חובבן מקצועי

                            @working.cohen כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                            וכאשר אני מריץ את המודל של גמ'ה 4 לוקח לו גם הרבה מאוד זמן (חצי דקה) לענות........

                            באיזה אופן אתה מריץ? (כמה ליבות מעבד תפוסות, וכד') ואגב, יש תהליך חשיבה - משהו שלמעשה מאריך את זמן התשובה.

                            @א.מ.ד. - איך מבטלים באמת את הליך החשיבה?

                            W מנותק
                            W מנותק
                            working.cohen
                            כתב נערך לאחרונה על ידי
                            #24

                            @חובבן-מקצועי @א.מ.ד.
                            מצטרף לשאלה.
                            זהה בדיוק מה שלוקח לו זמן...אבל גם כשאמרתי לו לא לחשוב, הוא ממשיך....🤔
                            וגם:

                            באיזה אופן אתה מריץ? (כמה ליבות מעבד תפוסות, וכד')

                            מה זה אומר???

                            (אני פשוט התקנתי את Ollama . והתקנתי דרך שורת הפקודה את המודל....)

                            תגובה 1 תגובה אחרונה
                            0
                            • W working.cohen

                              @א.מ.ד.
                              קודם כל יישר כח על המדריך המושקע והיפה.
                              לא הבנתי מה הכוונה?

                              תנסה אולי להוסיף שרשורי מעבד.

                              יש לי מעבד I7 דור 8
                              וכאשר אני מריץ את המודל של גמ'ה 4 לוקח לו גם הרבה מאוד זמן (חצי דקה) לענות........

                              א.מ.ד.א מחובר
                              א.מ.ד.א מחובר
                              א.מ.ד.
                              כתב נערך לאחרונה על ידי א.מ.ד.
                              #25

                              @working.cohen כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                              @א.מ.ד.
                              קודם כל יישר כח על המדריך המושקע והיפה.
                              לא הבנתי מה הכוונה?

                              תנסה אולי להוסיף שרשורי מעבד.

                              יש לי מעבד I7 דור 8
                              וכאשר אני מריץ את המודל של גמ'ה 4 לוקח לו גם הרבה מאוד זמן (חצי דקה) לענות........

                              זה הגדרה בצד ימין:
                              e9902fb1-a881-4ea1-857c-b3c21de79064-image.png
                              תגדיל ל-6 או יותר אם אפשרי, רק שים לב שזה לא תוקע את שאר המחשב.

                              @חובבן-מקצועי כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                              @א.מ.ד. - איך מבטלים באמת את הליך החשיבה?

                              הגרסאות המעודכנות של ה-GGUF של Gemma 4 (אפשר גם לעדכן רק את תבנית הצ'אט) יחד עם הגרסה המעודכנת של LM Studio הן כברירת מחדל ללא חשיבה. כדי לאלץ חשיבה נכון לעכשיו נדרש לשנות את תבנית הצ'אט.

                              מפתח אפליקציות אנדרואיד
                              em0548438097@gmail.com

                              W תגובה 1 תגובה אחרונה
                              1
                              • א.מ.ד.א א.מ.ד.

                                @working.cohen כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                                @א.מ.ד.
                                קודם כל יישר כח על המדריך המושקע והיפה.
                                לא הבנתי מה הכוונה?

                                תנסה אולי להוסיף שרשורי מעבד.

                                יש לי מעבד I7 דור 8
                                וכאשר אני מריץ את המודל של גמ'ה 4 לוקח לו גם הרבה מאוד זמן (חצי דקה) לענות........

                                זה הגדרה בצד ימין:
                                e9902fb1-a881-4ea1-857c-b3c21de79064-image.png
                                תגדיל ל-6 או יותר אם אפשרי, רק שים לב שזה לא תוקע את שאר המחשב.

                                @חובבן-מקצועי כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                                @א.מ.ד. - איך מבטלים באמת את הליך החשיבה?

                                הגרסאות המעודכנות של ה-GGUF של Gemma 4 (אפשר גם לעדכן רק את תבנית הצ'אט) יחד עם הגרסה המעודכנת של LM Studio הן כברירת מחדל ללא חשיבה. כדי לאלץ חשיבה נכון לעכשיו נדרש לשנות את תבנית הצ'אט.

                                W מנותק
                                W מנותק
                                working.cohen
                                כתב נערך לאחרונה על ידי
                                #26

                                @א.מ.ד.
                                ישר כח. אבל איפה אני מוצא את המסך לבחירת כמות ליבות? כמו שצירפת בצמונה?

                                א.מ.ד.א תגובה 1 תגובה אחרונה
                                0
                                • W working.cohen

                                  @א.מ.ד.
                                  ישר כח. אבל איפה אני מוצא את המסך לבחירת כמות ליבות? כמו שצירפת בצמונה?

                                  א.מ.ד.א מחובר
                                  א.מ.ד.א מחובר
                                  א.מ.ד.
                                  כתב נערך לאחרונה על ידי א.מ.ד.
                                  #27

                                  @working.cohen כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                                  @א.מ.ד.
                                  ישר כח. אבל איפה אני מוצא את המסך לבחירת כמות ליבות? כמו שצירפת בצמונה?

                                  במגירה בצד ימין:
                                  38d250d1-d74b-40c0-9868-696b41b254ed-image.png

                                  אם אתה לא מוצא את זה, תאפשר בהגדרות מצב מפתחים:
                                  352e2371-8de0-48dd-a8b0-34d647ce0ec0-image.png

                                  ואז תחזור למסך הצ'אט ותראה שהמגירה התמלאה בהגדרות נוספות.

                                  מפתח אפליקציות אנדרואיד
                                  em0548438097@gmail.com

                                  W תגובה 1 תגובה אחרונה
                                  1
                                  • א.מ.ד.א א.מ.ד.

                                    @working.cohen כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                                    @א.מ.ד.
                                    ישר כח. אבל איפה אני מוצא את המסך לבחירת כמות ליבות? כמו שצירפת בצמונה?

                                    במגירה בצד ימין:
                                    38d250d1-d74b-40c0-9868-696b41b254ed-image.png

                                    אם אתה לא מוצא את זה, תאפשר בהגדרות מצב מפתחים:
                                    352e2371-8de0-48dd-a8b0-34d647ce0ec0-image.png

                                    ואז תחזור למסך הצ'אט ותראה שהמגירה התמלאה בהגדרות נוספות.

                                    W מנותק
                                    W מנותק
                                    working.cohen
                                    כתב נערך לאחרונה על ידי working.cohen
                                    #28

                                    @א.מ.ד.
                                    תודה רבה
                                    זה בתוכנה Ollama ?

                                    חובבן מקצועיח תגובה 1 תגובה אחרונה
                                    0
                                    • W working.cohen

                                      @א.מ.ד.
                                      תודה רבה
                                      זה בתוכנה Ollama ?

                                      חובבן מקצועיח מנותק
                                      חובבן מקצועיח מנותק
                                      חובבן מקצועי
                                      כתב נערך לאחרונה על ידי
                                      #29

                                      @working.cohen כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                                      זה בתוכנה Ollama ?

                                      זה בLM סטודיו, ויש לזה מדריך מפורט וארוך יותר פה, אולי יעזור לך..

                                      תגובה 1 תגובה אחרונה
                                      0
                                      • J מחובר
                                        J מחובר
                                        jc324118983
                                        כתב נערך לאחרונה על ידי
                                        #30

                                        יש לי Ollama ואני רוצה לדעת האם יש הבדל גדול ביו זה לLM Studio
                                        וכמו כן אולי כדאי גם כן להרחיב על מודל תמונות

                                        א.מ.ד.א תגובה 1 תגובה אחרונה
                                        0
                                        • J jc324118983

                                          יש לי Ollama ואני רוצה לדעת האם יש הבדל גדול ביו זה לLM Studio
                                          וכמו כן אולי כדאי גם כן להרחיב על מודל תמונות

                                          א.מ.ד.א מחובר
                                          א.מ.ד.א מחובר
                                          א.מ.ד.
                                          כתב נערך לאחרונה על ידי
                                          #31

                                          @jc324118983 כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                                          יש לי Ollama ואני רוצה לדעת האם יש הבדל גדול ביו זה לLM Studio

                                          יש הבדל גדול, והוא מפורט במדריך למעלה.

                                          @jc324118983 כתב במדריך | מודלי AI מקומיים - מדריך וסקירה מקיפים למודלים קטנים ויעילים - מתעדכן.:

                                          וכמו כן אולי כדאי גם כן להרחיב על מודל תמונות

                                          זה תחום אחר לגמרי, אולי בהמשך אני יוסיף את זה.

                                          מפתח אפליקציות אנדרואיד
                                          em0548438097@gmail.com

                                          J תגובה 1 תגובה אחרונה
                                          1

                                          • התחברות

                                          • אין לך חשבון עדיין? הרשמה

                                          • התחברו או הירשמו כדי לחפש.
                                          • פוסט ראשון
                                            פוסט אחרון
                                          0
                                          • חוקי הפורום
                                          • פופולרי
                                          • לא נפתר
                                          • משתמשים
                                          • חיפוש גוגל בפורום
                                          • צור קשר