עזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai
-
@hartkhartk כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
דרוש בודקים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai)
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit import OpenaiTools from dotenv import load_dotenv import os load_dotenv() OPENAI_API_KEY = os.getenv("OPENAI_API_KEY") client = OpenaiTools.create_openai_client(OPENAI_API_KEY) OpenaiTools.print_openai_models(client) data = OpenaiTools.criate_data_dict(client, model="gpt-3.5-turbo") respons = OpenaiTools.openai(client, data)שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
במה זה עדיף על המוצר הרשמי של OpenAI?
@א.מ.ד. כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
@hartkhartk כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
דרוש בודקים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai)
aitoolkit-0.1.0-py3-none-any.whlלהתחלה צריך קובץ .env שמכיל api key של oenai
להתחלה אפשר עם קוד כזה
from aiToolkit import OpenaiTools from dotenv import load_dotenv import os load_dotenv() OPENAI_API_KEY = os.getenv("OPENAI_API_KEY") client = OpenaiTools.create_openai_client(OPENAI_API_KEY) OpenaiTools.print_openai_models(client) data = OpenaiTools.criate_data_dict(client, model="gpt-3.5-turbo") respons = OpenaiTools.openai(client, data)שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
במה זה עדיף על המוצר הרשמי של OpenAI?
זו גישה שונה לדברים (אפשר לדון אם זה יותר או פחות נוח)
-
עריכה: החבילה הועלה ל pip ועודכנה
דרוש בודקים לחבילת פייתון לעבודה מול api של ai
להתקנה
pip install unifiedaiservicesלהתחלה אפשר עם קוד כזה
from unifiedaiservices import CreateClient, AISettings import os from dotenv import load_dotenv load_dotenv() API_KEY = os.getenv("OpenAI_API_KEY") # provider options: openai, groq, gemini client = CreateClient(api_key=API_KEY ,provider="openai").get_client() openai = AISettings(client=client) openai.print_models() openai.exists_model("gpt-4o") openai.get_models() print(openai.get_model_info("gpt-4o")) # The following line creates a data_prompt for the gpt-4o model. To know what parameters are needed, refer to get_model_info in the prompt value. If a certain required value is empty it will ask for input in the terminal openai.create_data(model="gpt-4o", user_prompt="Hello, world!", ) # it will ask for model_promp in the terminal print(openai.data_prompt) # or manually openai.data_prompt = {"model": "gpt-4o", "prompt": "Hello, world!", "max_tokens": 50}שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)
@hartkhartk לפני שאתה ממשיך לעבוד על זה
בדקת שאין עוד עשרות ספריות דומות?
מה הספריה שלך מחדשת? -
האמת שכרגע אני עובד על משהו שקצת מזכיר את זה, לצורך פרויקט מסוים אני רוצה שיתמוך בכל המודלים אז יצרתי מחלקת base (מחלקה שממנה יירשו מחלקות אחרות) עם פונקציות לשליחת בקשה (עם אפשרות לקבצים כי זה בעיקר מה שאני צריך) ופונקציה שמנתחת את התשובה לאסימונים (עם חלוקה לסוגי הסימונים) ותמחור שבעיקר בשביל זה יצרתי את כל זה (רציתי תאימות באסימונים ותמחור)
אבל זה תואם במיוחד לפרוקיט שלי כך שלא יודע אם זה רלוונטי (וזה גם רק בתחילת העבודה)
כמובן כל שרת (llm( מודל שפה אני יוצר בשבילו מחלקה או מבנה (יכול להיות שאני יעשה מחלקה כללית שמקבלת json שיכיל את הנתונים שצריך כדי לפרק. -
האמת שכרגע אני עובד על משהו שקצת מזכיר את זה, לצורך פרויקט מסוים אני רוצה שיתמוך בכל המודלים אז יצרתי מחלקת base (מחלקה שממנה יירשו מחלקות אחרות) עם פונקציות לשליחת בקשה (עם אפשרות לקבצים כי זה בעיקר מה שאני צריך) ופונקציה שמנתחת את התשובה לאסימונים (עם חלוקה לסוגי הסימונים) ותמחור שבעיקר בשביל זה יצרתי את כל זה (רציתי תאימות באסימונים ותמחור)
אבל זה תואם במיוחד לפרוקיט שלי כך שלא יודע אם זה רלוונטי (וזה גם רק בתחילת העבודה)
כמובן כל שרת (llm( מודל שפה אני יוצר בשבילו מחלקה או מבנה (יכול להיות שאני יעשה מחלקה כללית שמקבלת json שיכיל את הנתונים שצריך כדי לפרק.@mefateach כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
האמת שכרגע אני עובד על משהו שקצת מזכיר את זה, לצורך פרויקט מסוים אני רוצה שיתמוך בכל המודלים אז יצרתי מחלקת base (מחלקה שממנה יירשו מחלקות אחרות) עם פונקציות לשליחת בקשה (עם אפשרות לקבצים כי זה בעיקר מה שאני צריך) ופונקציה שמנתחת את התשובה לאסימונים (עם חלוקה לסוגי הסימונים) ותמחור שבעיקר בשביל זה יצרתי את כל זה (רציתי תאימות באסימונים ותמחור)
אבל זה תואם במיוחד לפרוקיט שלי כך שלא יודע אם זה רלוונטי (וזה גם רק בתחילת העבודה)
כמובן כל שרת (llm( מודל שפה אני יוצר בשבילו מחלקה או מבנה (יכול להיות שאני יעשה מחלקה כללית שמקבלת json שיכיל את הנתונים שצריך כדי לפרק.זה ממש לא אותו הדבר!
אני עושה שכל אחד מכניס את api טוקן שלו -
@hartkhartk לא הבנתי מה צריך לבדוק
@a.y.f. כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
@hartkhartk לא הבנתי מה צריך לבדוק
החבילה עודכנה ברמות ואני ישמח לתגובות
-
@mefateach כתב בעזרה | דרוש בודקים מאירים ומעירים לחבילת פייתון לעבודה מול api של ai (כרגע רק openai):
האמת שכרגע אני עובד על משהו שקצת מזכיר את זה, לצורך פרויקט מסוים אני רוצה שיתמוך בכל המודלים אז יצרתי מחלקת base (מחלקה שממנה יירשו מחלקות אחרות) עם פונקציות לשליחת בקשה (עם אפשרות לקבצים כי זה בעיקר מה שאני צריך) ופונקציה שמנתחת את התשובה לאסימונים (עם חלוקה לסוגי הסימונים) ותמחור שבעיקר בשביל זה יצרתי את כל זה (רציתי תאימות באסימונים ותמחור)
אבל זה תואם במיוחד לפרוקיט שלי כך שלא יודע אם זה רלוונטי (וזה גם רק בתחילת העבודה)
כמובן כל שרת (llm( מודל שפה אני יוצר בשבילו מחלקה או מבנה (יכול להיות שאני יעשה מחלקה כללית שמקבלת json שיכיל את הנתונים שצריך כדי לפרק.זה ממש לא אותו הדבר!
אני עושה שכל אחד מכניס את api טוקן שלו@hartkhartk גם אצלי זה ככה מה זאת אומרת ברור שמכניסים את ה api רק שלא בניתי את זה כחבילה (זה מובנה בפרויקט שלי (אגב כדאי לציין שהדרך להכניס את ה token היא לפי איך שהמשתמש רוצה אין שום חובה להכניס דרך משתני סביבה)
אם תצליח להוסיף שיחשב טוקנים ועלויות לדעתי זאת תהיה התקדמות עדירה (אבל זה באמת הרבה יותר מסובך)
-
@hartkhartk גם אצלי זה ככה מה זאת אומרת ברור שמכניסים את ה api רק שלא בניתי את זה כחבילה (זה מובנה בפרויקט שלי (אגב כדאי לציין שהדרך להכניס את ה token היא לפי איך שהמשתמש רוצה אין שום חובה להכניס דרך משתני סביבה)
אם תצליח להוסיף שיחשב טוקנים ועלויות לדעתי זאת תהיה התקדמות עדירה (אבל זה באמת הרבה יותר מסובך)
@mefateach למה מסובך?
אולי במודל חשיבה או עם כלים שאז לא ודאי שאתה מקבל פירוט אבל רק על בסיס קלט - פלט יש ספריות שיודעות לחשב את זה בשביל רוב המודלים -
@mefateach למה מסובך?
אולי במודל חשיבה או עם כלים שאז לא ודאי שאתה מקבל פירוט אבל רק על בסיס קלט - פלט יש ספריות שיודעות לחשב את זה בשביל רוב המודלים -
@מתכנת-חובב אני צריך חשבון לכל מודל לפי קלט אודיו טקסט פלט אודיו טקסט וחישוב עלות כולל כלי החיפוש יש ספרייה כזאת (חשוב שיהיה מדויק ואם אפשר שגם יידע לשלוף את הערכים מתוך הפלט)
@mefateach בשביל כלי חיפוש כבר כתבתי שאני לא יודע
לגבי אודיו כנ"ל אבל אתה יכול לחפש -
@מתכנת-חובב @mefateach @a.y.f. @א.מ.ד. החבילה שלי נמצאת עכשיו רשמית ב pip
להתקנהpip install unifiedaiservicesשימוש
from unifiedaiservices import CreateClient, AISettings import os from dotenv import load_dotenv load_dotenv() API_KEY = os.getenv("OpenAI_API_KEY") # provider options: openai, groq, gemini client = CreateClient(api_key=API_KEY ,provider="openai").get_client() openai = AISettings(client=client) openai.print_models() openai.exists_model("gpt-4o") openai.get_models() print(openai.get_model_info("gpt-4o")) # The following line creates a data_prompt for the gpt-4o model. To know what parameters are needed, refer to get_model_info in the prompt value. If a certain required value is empty it will ask for input in the terminal openai.create_data(model="gpt-4o", user_prompt="Hello, world!", ) # it will ask for model_promp in the terminal print(openai.data_prompt) # or manually openai.data_prompt = {"model": "gpt-4o", "prompt": "Hello, world!", "max_tokens": 50}```שימו לב שעקב כך שאין לי את האפשרות לשלב על הסימוני שימוש ב api החבילה לא נבדקה כלל בחלקים האלו (ולמי שרואה את זה כזלזול או ניצול התנצלותי אבל באמת אין לי את האפשרות)