תוכן עניינים
נקודה מרכזית
הריפו memU הוא פריימוורק זיכרון קוד פתוח שמאפשר לסוכני AI לשמור קונטקסט לטווח ארוך ולרוץ באופן פרואקטיבי 24/7. פותח על ידי NevaMind-AI, הוא מפחית דרמטית עלויות טוקנים על ידי ארגון הזיכרון באופן היררכי כמו מערכת קבצים ושימוש ב-dual-mode retrieval חכם שעובר בין מעקב זול לריזונינג עמוק רק כשצריך.
מה זה memU?
הריפו memU הוא פריימוורק זיכרון שתוכנן במיוחד לבניית סוכני AI שצריכים לרוץ ברציפות עם קונטקסט מתמיד. הפרויקט memU פותר את בעיית ה'אמנזיה' הבסיסית שכולנו מתמודדים איתה - מודלי שפה גדולים שוכחים הכל ברגע שהסשן נגמר, ולשמור אותם ערים כל הזמן עם חלונות קונטקסט ענקיים עולה הון בטוקנים.
בניגוד למערכות RAG רגילות שפשוט מושכות מסמכים, memU מבנה את הזיכרון באופן היררכי ומאפשר לסוכנים שלנו להיות פרואקטיביים ולא רק ריאקטיביים. הוא מאפשר לסוכנים שלנו לעקוב אחרי זרמי מידע ברקע ולצפות מראש צרכים במקום לחכות לפקודות מפורשות.
הבעיה שכולנו מכירים
כולנו נתקלנו בקיר הזה: הסוכנים שלנו מדהימים במהלך שיחה, אבל ברגע שהסשן נגמר, הם שוכחים הכל. כל אינטראקציה מתחילה מאפס. כדי לשמור על קונטקסט, אנחנו צריכים לשמור חלונות קונטקסט ענקיים פתוחים כל הזמן, מה ששורף טוקנים בקצב בלתי אפשרי.
מסתבר ש-RAG רגיל - Retrieval-Augmented Generation - עוזר על ידי משיכת מסמכים רלוונטיים, אבל הוא לא נותן לסוכנים זיכרון מובנה ומתמיד. אנחנו לא יכולים לבנות סוכנים שבאמת לומדים את ההעדפות שלנו לאורך זמן, צופים מראש את הצרכים שלנו, או פועלים באופן אוטונומי 24/7 בלי לשכוח קונטקסט או לפשוט את הרגל.
האתגר הוא שהפתרונות הקיימים מכריחים אותנו לבחור: או קונטקסט יקר שרץ כל הזמן, או סוכנים עם אמנזיה. אנחנו צריכים משהו שמשמר זיכרון לטווח ארוך ביעילות תוך הפעלת התנהגות פרואקטיבית.
איך memU עובד
memU לוקח גישה של מערכת קבצים לזיכרון הסוכן. תחשבו על זה כמו לארגן את המחשב שלכם - במקום לזרוק הכל לתיקייה אחת, יש לנו מבנה היררכי שהופך את השליפה ליעילה וקונטקסטואלית.
הפריימוורק מארגן את הזיכרון בשלוש שכבות:
- תיקיות ← קטגוריות: נושאים ותמות שמתארגנות אוטומטית. כמו שיש לכם תיקיית 'פרויקטים בעבודה' ותיקיית 'משימות אישיות'.
- קבצים ← פריטי זיכרון: עובדות ספציפיות, העדפות, כישורים נלמדים. תחשבו על אלה כמו מסמכים בודדים ששומרים פיסות ידע נפרדות.
- נקודות חיבור ← משאבים: שיחות גולמיות, מסמכים, זרמי מידע. החומר הגולמי שממנו מופקים פריטי הזיכרון.
החידוש האמיתי הוא מערכת ה-dual-mode retrieval:
Fast Context (מצב RAG): מה שנקרא embedding-based similarity scoring למעקב בזמן אמת. זה רץ ברקע בלטנסי של מילישניות, עוקב כל הזמן אחרי זרמי מידע לחיפוש דפוסים רלוונטיים. העלות מינימלית כי אנחנו רק משתמשים ב-embeddings, לא עושים קריאות LLM.
Deep Reasoning (מצב LLM): כש-Fast Context מזהה משהו רלוונטי - נגיד, מחיר מניה שמגיע לסף שאכפת לנו ממנו - הסוכן עובר למצב הזה. עכשיו הוא משתמש ביכולות הריזונינג המלאות של ה-LLM כדי להבין כוונות, לגבש תגובות ולחזות צעדים הבאים. זה יותר איטי ויקר, אבל אנחנו משתמשים בזה רק כשאנחנו צריכים.
בואו נפרק את זה: על ידי שמירת תובנות במטמון והימנעות מקריאות LLM מיותרות לכל בדיקת קונטקסט, memU מפחית דרמטית את עלות הטוקנים של הרצת סוכנים 24/7. הסוכן לא 'חושב' כל הזמן - הוא צופה ביעילות וחושב עמוק רק כשמשהו חשוב קורה.
התחלה מהירה
ככה אנחנו מתחילים עם memU:
# התקנה
pip install memu
# סטאפ בסיסי עם PostgreSQL
from memu import MemoryAgent
import os
# אתחול סוכן עם אחסון מתמיד
agent = MemoryAgent(
db_url=os.getenv("DATABASE_URL"),
embedding_model="text-embedding-3-small"
)
# התחלת מעקב אחרי זרם מידע
agent.monitor_stream(
source="user_activity",
check_interval=60 # שניות
)דוגמה אמיתית
נגיד שאנחנו רוצים לבנות עוזר פיננסי אישי שעוקב אחרי התיק שלנו ומתריע על הזדמנויות:
from memu import MemoryAgent, Category
# אתחול עם ההעדפות שלנו שמורות בזיכרון
agent = MemoryAgent(db_url="postgresql://localhost/finance_agent")
# שמירת העדפות משתמש כפריטי זיכרון
agent.memory.store(
category=Category.PREFERENCES,
item={
"risk_tolerance": "moderate",
"interest_sectors": ["tech", "healthcare"],
"alert_threshold": 5 # אחוז שינוי
}
)
# מעקב אחרי מחירי מניות ברקע (מצב Fast Context)
agent.monitor_stream(
source="stock_prices",
check_interval=300 # כל 5 דקות
)
# כשמתגלה דפוס רלוונטי, הסוכן עובר ל-Deep Reasoning
# ויכול לגבש הצעות פרואקטיביות כמו:
# "NVIDIA ירדה 6% - מתחת לסף ההתראה שלך ובסקטור שמעניין אותך.
# בהתבסס על הסיכון המתון שלך, שקול לקנות בירידה."פיצ'רים מרכזיים
- מבנה זיכרון היררכי - הקטע המדליק הוא שהוא מארגן קונטקסט כמו מערכת קבצים עם תיקיות, קבצים ונקודות חיבור. תחשבו על זה כמו ספרייה מאורגנת במקום ערימת ניירות.
- Dual-Mode Retrieval - מעקב מהיר מבוסס embeddings עובר לריזונינג LLM עמוק רק כשצריך. כמו מצלמת אבטחה שמעירה אותך רק כשמשהו חשוב קורה, לא על כל רכב שעובר.
- קטגוריזציה אוטומטית - פריטי זיכרון מתארגנים לנושאים בלי תיוג ידני. המערכת לומדת מה שייך לאן כשהיא נתקלת במידע חדש.
- אחסון מתמיד עם pgvector - משתמש ב-PostgreSQL עם תוספי וקטורים לזיכרון אמין וניתן לשאילתה לטווח ארוך. הזיכרון של הסוכן שורד ריסטארטים וניתן לגיבוי כמו כל בסיס נתונים.
- התנהגות פרואקטיבית - סוכנים יכולים לעקוב ולפעול על דפוסים בלי פקודות מפורשות. הם צופים מראש צרכים על בסיס העדפות נלמדות וקונטקסט.
- אופטימיזציה של עלויות טוקנים - מפחית דרמטית עלויות על ידי שמירת תובנות במטמון והימנעות מקריאות LLM מיותרות בזמן מעקב.
מתי להשתמש ב-memU לעומת אלטרנטיבות
memU מצטיין לסוכנים שצריכים לרוץ ברציפות ולשמור קונטקסט על פני ימים, שבועות או יותר. אם אנחנו בונים עוזר אישי שלומד את ההעדפות שלנו, בוט טריידינג שעוקב אחרי שווקים 24/7, או סוכן DevOps שצופה בתשתית וצופה מראש בעיות - memU מספק את תשתית הזיכרון שאנחנו צריכים.
ליוזקייסים פשוטים יותר כמו מענה על שאלות חד-פעמיות או RAG בסיסי שבו הסשנים בלתי תלויים, מאגרי וקטורים סטנדרטיים כמו Pinecone או Weaviate אולי יותר פשוטים. הם מצוינים לשליפת מסמכים רלוונטיים אבל לא מספקים את הזיכרון המובנה והמתמיד או את המעקב הפרואקטיבי ש-memU מציע.
מודולי הזיכרון של LangChain מעולים לשמירת קונטקסט בתוך סשן שיחה אחד, אבל הם לא נשארים בין סשנים או מאפשרים את סוג המעקב 24/7 וההתנהגות הפרואקטיבית ש-memU מספק.
בעיניי, נבחר ב-memU כשבונים סוכנים שצריכים: לשמור זיכרון לטווח ארוך בין סשנים, לרוץ ברציפות ברקע, לצפות מראש צרכי משתמש באופן פרואקטיבי, ולבצע אופטימיזציה של עלויות טוקנים להפעלה 24/7. לשליפה פשוטה יותר או צ'אט מבוסס סשן, כלים אחרים אולי יותר מתאימים.
בעיניי - האם אשתמש בזה?
לעניות דעתי, זו תשתית שחסרה לנו לעבודה רצינית עם סוכנים. בעיית ה'אמנזיה' הייתה חסם אמיתי לבניית סוכנים שמרגישים באמת אינטליגנטיים ומותאמים אישית. הגישה של memU לזיכרון כמערכת קבצים הגיונית - זה איך שאנחנו מארגנים מידע במוחות שלנו ובמחשבים שלנו.
ה-dual-mode retrieval חכם במיוחד. במקום להריץ כל הזמן שאילתות LLM יקרות, אנחנו עוקבים בזול וחושבים עמוק רק כשזה חשוב. זה הופך סוכנים 24/7 לכלכליים, מה שפותח קטגוריות חדשות לגמרי של אפליקציות.
אני במיוחד מתרגש מהשימוש בזה לבניית עוזרים אישיים שבאמת לומדים העדפות לאורך זמן ויכולים להציף באופן פרואקטיבי מידע רלוונטי. דוגמת בוט הטריידינג בדוקס שלהם משכנעת - סוכן שעוקב אחרי שווקים ומתריע אותנו על בסיס פרופיל הסיכון ותזת ההשקעה שלנו, במקום רק להגיב לשאילתות 'מה המחיר של X?'.
המגבלה העיקרית היא דרישות תשתית - אנחנו צריכים PostgreSQL עם pgvector ומשהו להריץ את הסוכן ברציפות. זה לא פתרון drop-in לאפליקציות צ'אט פשוטות. אבל לבניית סוכנים רציניים ברמת פרודקשן שפועלים באופן אוטונומי, זה מספק בדיוק את שכבת הזיכרון שאנחנו צריכים.
תבדקו את הפרויקט המלא כאן: memU ב-GitHub
שאלות נפוצות
מה זה memU?
הריפו memU הוא פריימוורק זיכרון קוד פתוח שמאפשר לסוכני AI לשמור קונטקסט לטווח ארוך ולרוץ באופן פרואקטיבי 24/7 על ידי ארגון הזיכרון באופן היררכי כמו מערכת קבצים ושימוש ב-dual-mode retrieval.
מי יצר את memU?
הריפו memU נוצר על ידי NevaMind-AI, צוות שמתמקד בבניית תשתית לסוכני AI אוטונומיים.
מתי כדאי להשתמש ב-memU?
כדאי להשתמש ב-memU כשבונים סוכנים שצריכים לרוץ ברציפות, לשמור קונטקסט בין סשנים ולפעול באופן פרואקטיבי - כמו עוזרים אישיים, בוטי טריידינג או מערכות מעקב.
מה האלטרנטיבות ל-memU?
אלטרנטיבות כוללות מאגרי וקטורים סטנדרטיים כמו Pinecone או Weaviate לשליפה פשוטה, מודולי זיכרון של LangChain לקונטקסט מבוסס סשן, או פתרונות מותאמים אישית. אבל בדרך כלל חסרות להם יכולות ההתמדה המובנית והמעקב הפרואקטיבי של memU.
מה המגבלות של memU?
memU דורש PostgreSQL עם תוסף pgvector ותשתית להפעלה 24/7. הוא מתוכנן לסוכנים מתמידים, לא לשיחות חד-פעמיות פשוטות או אפליקציות RAG בסיסיות.
