עזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai
-
עריכה: החבילה עודכנה בכמה רמות וכעת יש סינטקס אחיד לחלוטין ל openai, groq, gemini
דרוש בודקים לחבילת פייתון לעבודה מול api של ai
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit.client import CreateClient from aiToolkit.settings import OpenAIProvider import os from dotenv import load_dotenv load_dotenv() API_KEY = os.getenv("OpenAI_API_KEY") client = CreateClient(api_key=API_KEY ,provider="openai").get_client() openai = OpenAIProvider(client) openai.print_models() openai.create_data("model", "prompsts") openai.exists_model("model_id") openai.get_models() openai.get_model_info("model_id") openai.data_prompt = {"model": "gpt-4o", "prompt": "Hello, world!", "max_tokens": 50}שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
-
עריכה: החבילה עודכנה בכמה רמות וכעת יש סינטקס אחיד לחלוטין ל openai, groq, gemini
דרוש בודקים לחבילת פייתון לעבודה מול api של ai
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit.client import CreateClient from aiToolkit.settings import OpenAIProvider import os from dotenv import load_dotenv load_dotenv() API_KEY = os.getenv("OpenAI_API_KEY") client = CreateClient(api_key=API_KEY ,provider="openai").get_client() openai = OpenAIProvider(client) openai.print_models() openai.create_data("model", "prompsts") openai.exists_model("model_id") openai.get_models() openai.get_model_info("model_id") openai.data_prompt = {"model": "gpt-4o", "prompt": "Hello, world!", "max_tokens": 50}שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
@hartkhartk לא הבנתי מה צריך לבדוק
-
@hartkhartk לא הבנתי מה צריך לבדוק
@a.y.f. כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
@hartkhartk לא הבנתי מה צריך לבדוק
שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
כפשוטו האם זה נותן את התשבות שציפית להם
-
עריכה: החבילה עודכנה בכמה רמות וכעת יש סינטקס אחיד לחלוטין ל openai, groq, gemini
דרוש בודקים לחבילת פייתון לעבודה מול api של ai
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit.client import CreateClient from aiToolkit.settings import OpenAIProvider import os from dotenv import load_dotenv load_dotenv() API_KEY = os.getenv("OpenAI_API_KEY") client = CreateClient(api_key=API_KEY ,provider="openai").get_client() openai = OpenAIProvider(client) openai.print_models() openai.create_data("model", "prompsts") openai.exists_model("model_id") openai.get_models() openai.get_model_info("model_id") openai.data_prompt = {"model": "gpt-4o", "prompt": "Hello, world!", "max_tokens": 50}שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
@hartkhartk כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
דרוש בודקים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai)
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit import OpenaiTools from dotenv import load_dotenv import os load_dotenv() OPENAI_API_KEY = os.getenv("OPENAI_API_KEY") client = OpenaiTools.create_openai_client(OPENAI_API_KEY) OpenaiTools.print_openai_models(client) data = OpenaiTools.criate_data_dict(client, model="gpt-3.5-turbo") respons = OpenaiTools.openai(client, data)שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
במה זה עדיף על המוצר הרשמי של OpenAI?
-
@hartkhartk כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
דרוש בודקים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai)
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit import OpenaiTools from dotenv import load_dotenv import os load_dotenv() OPENAI_API_KEY = os.getenv("OPENAI_API_KEY") client = OpenaiTools.create_openai_client(OPENAI_API_KEY) OpenaiTools.print_openai_models(client) data = OpenaiTools.criate_data_dict(client, model="gpt-3.5-turbo") respons = OpenaiTools.openai(client, data)שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
במה זה עדיף על המוצר הרשמי של OpenAI?
@א.מ.ד. כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
@hartkhartk כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
דרוש בודקים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai)
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit import OpenaiTools from dotenv import load_dotenv import os load_dotenv() OPENAI_API_KEY = os.getenv("OPENAI_API_KEY") client = OpenaiTools.create_openai_client(OPENAI_API_KEY) OpenaiTools.print_openai_models(client) data = OpenaiTools.criate_data_dict(client, model="gpt-3.5-turbo") respons = OpenaiTools.openai(client, data)שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
במה זה עדיף על המוצר הרשמי של OpenAI?
זו גישה שונה לדברים (אפשר לדון אם זה יותר או פחות נוח)
-
עריכה: החבילה עודכנה בכמה רמות וכעת יש סינטקס אחיד לחלוטין ל openai, groq, gemini
דרוש בודקים לחבילת פייתון לעבודה מול api של ai
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit.client import CreateClient from aiToolkit.settings import OpenAIProvider import os from dotenv import load_dotenv load_dotenv() API_KEY = os.getenv("OpenAI_API_KEY") client = CreateClient(api_key=API_KEY ,provider="openai").get_client() openai = OpenAIProvider(client) openai.print_models() openai.create_data("model", "prompsts") openai.exists_model("model_id") openai.get_models() openai.get_model_info("model_id") openai.data_prompt = {"model": "gpt-4o", "prompt": "Hello, world!", "max_tokens": 50}שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
@hartkhartk לפני שאתה ממשיך לעבוד על זה
בדקת שאין עוד עשרות ספריות דומות?
מה הספריה שלך מחדשת? -
האמת שכרגע אני עובד על משהו שקצת מזכיר את זה, לצורך פרויקט מסוים אני רוצה שיתמוך בכל המודלים אז יצרתי מחלקת base (מחלקה שממנה יירשו מחלקות אחרות) עם פונקציות לשליחת בקשה (עם אפשרות לקבצים כי זה בעיקר מה שאני צריך) ופונקציה שמנתחת את התשובה לאסימונים (עם חלוקה לסוגי הסימונים) ותמחור שבעיקר בשביל זה יצרתי את כל זה (רציתי תאימות באסימונים ותמחור)
אבל זה תואם במיוחד לפרוקיט שלי כך שלא יודע אם זה רלוונטי (וזה גם רק בתחילת העבודה)
כמובן כל שרת (llm( מודל שפה אני יוצר בשבילו מחלקה או מבנה (יכול להיות שאני יעשה מחלקה כללית שמקבלת json שיכיל את הנתונים שצריך כדי לפרק. -
האמת שכרגע אני עובד על משהו שקצת מזכיר את זה, לצורך פרויקט מסוים אני רוצה שיתמוך בכל המודלים אז יצרתי מחלקת base (מחלקה שממנה יירשו מחלקות אחרות) עם פונקציות לשליחת בקשה (עם אפשרות לקבצים כי זה בעיקר מה שאני צריך) ופונקציה שמנתחת את התשובה לאסימונים (עם חלוקה לסוגי הסימונים) ותמחור שבעיקר בשביל זה יצרתי את כל זה (רציתי תאימות באסימונים ותמחור)
אבל זה תואם במיוחד לפרוקיט שלי כך שלא יודע אם זה רלוונטי (וזה גם רק בתחילת העבודה)
כמובן כל שרת (llm( מודל שפה אני יוצר בשבילו מחלקה או מבנה (יכול להיות שאני יעשה מחלקה כללית שמקבלת json שיכיל את הנתונים שצריך כדי לפרק.@mefateach כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
האמת שכרגע אני עובד על משהו שקצת מזכיר את זה, לצורך פרויקט מסוים אני רוצה שיתמוך בכל המודלים אז יצרתי מחלקת base (מחלקה שממנה יירשו מחלקות אחרות) עם פונקציות לשליחת בקשה (עם אפשרות לקבצים כי זה בעיקר מה שאני צריך) ופונקציה שמנתחת את התשובה לאסימונים (עם חלוקה לסוגי הסימונים) ותמחור שבעיקר בשביל זה יצרתי את כל זה (רציתי תאימות באסימונים ותמחור)
אבל זה תואם במיוחד לפרוקיט שלי כך שלא יודע אם זה רלוונטי (וזה גם רק בתחילת העבודה)
כמובן כל שרת (llm( מודל שפה אני יוצר בשבילו מחלקה או מבנה (יכול להיות שאני יעשה מחלקה כללית שמקבלת json שיכיל את הנתונים שצריך כדי לפרק.זה ממש לא אותו הדבר!
אני עושה שכל אחד מכניס את api טוקן שלו -
@hartkhartk לא הבנתי מה צריך לבדוק
@a.y.f. כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
@hartkhartk לא הבנתי מה צריך לבדוק
החבילה עודכנה ברמות ואני ישמח לתגובות
-
@mefateach כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
האמת שכרגע אני עובד על משהו שקצת מזכיר את זה, לצורך פרויקט מסוים אני רוצה שיתמוך בכל המודלים אז יצרתי מחלקת base (מחלקה שממנה יירשו מחלקות אחרות) עם פונקציות לשליחת בקשה (עם אפשרות לקבצים כי זה בעיקר מה שאני צריך) ופונקציה שמנתחת את התשובה לאסימונים (עם חלוקה לסוגי הסימונים) ותמחור שבעיקר בשביל זה יצרתי את כל זה (רציתי תאימות באסימונים ותמחור)
אבל זה תואם במיוחד לפרוקיט שלי כך שלא יודע אם זה רלוונטי (וזה גם רק בתחילת העבודה)
כמובן כל שרת (llm( מודל שפה אני יוצר בשבילו מחלקה או מבנה (יכול להיות שאני יעשה מחלקה כללית שמקבלת json שיכיל את הנתונים שצריך כדי לפרק.זה ממש לא אותו הדבר!
אני עושה שכל אחד מכניס את api טוקן שלו@hartkhartk גם אצלי זה ככה מה זאת אומרת ברור שמכניסים את ה api רק שלא בניתי את זה כחבילה (זה מובנה בפרויקט שלי (אגב כדאי לציין שהדרך להכניס את ה token היא לפי איך שהמשתמש רוצה אין שום חובה להכניס דרך משתני סביבה)
אם תצליח להוסיף שיחשב טוקנים ועלויות לדעתי זאת תהיה התקדמות עדירה (אבל זה באמת הרבה יותר מסובך)
-
@hartkhartk גם אצלי זה ככה מה זאת אומרת ברור שמכניסים את ה api רק שלא בניתי את זה כחבילה (זה מובנה בפרויקט שלי (אגב כדאי לציין שהדרך להכניס את ה token היא לפי איך שהמשתמש רוצה אין שום חובה להכניס דרך משתני סביבה)
אם תצליח להוסיף שיחשב טוקנים ועלויות לדעתי זאת תהיה התקדמות עדירה (אבל זה באמת הרבה יותר מסובך)
@mefateach למה מסובך?
אולי במודל חשיבה או עם כלים שאז לא ודאי שאתה מקבל פירוט אבל רק על בסיס קלט - פלט יש ספריות שיודעות לחשב את זה בשביל רוב המודלים -
@mefateach למה מסובך?
אולי במודל חשיבה או עם כלים שאז לא ודאי שאתה מקבל פירוט אבל רק על בסיס קלט - פלט יש ספריות שיודעות לחשב את זה בשביל רוב המודלים