Agent Skills: פריימוורק Context Engineering לסוכני AI

מאת Yuval Avidani
זמן קריאה: 1 דק'

תוכן עניינים

נקודה מרכזית

הריפו Agent Skills for Context Engineering הוא פריימוורק מודולרי שמבסס את Context Engineering כדיסציפלינה נפרדת לניהול תקציבי תשומת הלב של סוכני AI. פותח על ידי Muratcan Koylan, הוא פותר את תופעת ה-'lost-in-the-middle' שבה סוכנים מאבדים קוהרנטיות בשיחות ארוכות על ידי לימוד איך לבחור קונטקסט באופן אקטיבי במקום להתייחס אליו כזיכרון פסיבי.

מה זה Agent Skills for Context Engineering?

הריפו Agent Skills for Context Engineering הוא פריימוורק מקיף שמגדיר ומממש את 'Context Engineering' כדיסציפלינה קריטית נפרדת מפרומפט אינג'ינירינג רגיל. הפרויקט Agent Skills for Context Engineering פותר את הבעיה של הידרדרות תשומת לב שכולנו מתמודדים איתה כשבונים סוכני AI בפרודקשן - שבה הסוכן נעשה בהדרגה 'טיפש' יותר ככל שהשיחות מתארכות וחלונות הקונטקסט מתמלאים.

בעוד פרומפט אינג'ינירינג מתמקד בכתיבת הוראות למה הסוכן צריך לעשות, Context Engineering מתמקד באיך הסוכן מנהל את תקציב תשומת הלב המוגבל על פני פרומפטים של מערכת, הגדרות כלים, היסטוריית שיחה ומסמכים שנשלפו. תחשבו על זה כמו ההבדל בין לספר למישהו אילו משימות להשלים לבין ללמד אותו איך לתעדף ולנהל את תשומת הלב שלו על פני דרישות מתחרות.

הבעיה שכולנו מכירים

כולנו חווינו את התסכול הזה: אנחנו מנהלים שיחה פרודוקטיבית עם סוכן AI, בונים קונטקסט לאורך עשרות הודעות. ואז אנחנו מתייחסים למשהו מוקדם יותר בשיחה, והסוכן מתנהג כאילו זה מעולם לא קרה. אנחנו מוצאים את עצמנו חוזרים על מידע, מבססים קונטקסט מחדש, או גרוע מכך - צופים בסוכן סותר את עצמו על סמך מידע שהוא נתן לנו עשרים הודעות קודם.

מסתבר שזו לא בעיה של אינטליגנציה של המודל - זו בעיה של ניהול תשומת לב. המונח הטכני הוא 'lost-in-the-middle', מה שנקרא קונטקסט חשוב שנקבר מתחת לרעש של טוקנים שהצטברו. כל פרומפט מערכת, כל הגדרת כלי, כל הודעה בהיסטוריה, כל מסמך שנשלף - כולם מתחרים על אותו תקציב תשומת לב מוגבל בתוך חלון הקונטקסט.

הפתרונות הקיימים בדרך כלל מתמקדים בלגרום למודלים להיות חכמים יותר או להרחיב חלונות קונטקסט. אבל אף אחד לא לימד באופן שיטתי את הסוכנים איך לבחור מה ראוי לתשומת הלב שלהם מלכתחילה.

איך Agent Skills for Context Engineering עובד

הפריימוורק הזה מציג 'Agent Skills' מודולריים - סטים של הוראות סטטיות, בלתי תלויות בפלטפורמה, שסוכנים יכולים לטעון באופן דינמי כדי לטפל במשימות מורכבות של ניהול קונטקסט. הגישה בנויה על עקרונות ארכיטקטורה קוגניטיבית מוצקים, במיוחד יישום של מודלי BDI (Belief-Desire-Intention).

הקטע המדליק הוא זה: במקום להתייחס לחלון הקונטקסט כמו משאית זבל שבה אנחנו זורקים הכל פנימה ומקווים שהמודל יבין, Context Engineering מלמד סוכנים לפעול כמו אוצרי מוזיאון. אוצר לא שומר כל חפץ - הוא בוחר באופן אקטיבי מה ראוי לתצוגה על סמך רלוונטיות, משמעות ומקום זמין. זה בדיוק מה ש-Agent Skills האלה עושים לניהול קונטקסט.

ארכיטקטורה קוגניטיבית BDI

הפריימוורק מממש מודלי BDI (Belief-Desire-Intention), מה שנקרא הסוכן הופך קונטקסט חיצוני למצבים מנטליים פנימיים מובנים:

  • Beliefs (אמונות) - ההבנה של הסוכן את המצב הנוכחי של העולם על סמך תצפיות והיסטוריה
  • Desires (רצונות) - המטרות שהסוכן רוצה להשיג
  • Intentions (כוונות) - התוכניות המחויבות לפעולה שהסוכן החליט לרדוף אחריהן

זה לא רק פילוסופי - זו ארכיטקטורה מעשית. במקום לטבוע בדאטה שיחתי גולמי, הסוכן שומר ייצוג מובנה של מה חשוב.

התחלה מהירה

ככה אנחנו משלבים Agent Skills לתוך זרימת העבודה שלנו:

# Agent Skills הם סטים של הוראות סטטיות
# טוענים אותם לתוך הפרומפט של המערכת או הכלים של הסוכן

# דוגמה: Context Compression Skill
SYSTEM_PROMPT = """
You are an AI agent with context management skills.

When the conversation exceeds 80% of context capacity:
1. Identify high-signal information (user goals, key decisions, active tasks)
2. Compress or archive low-signal information (greetings, acknowledged confirmations)
3. Maintain a compact belief state of what matters

Belief State Format:
- User Goal: [primary objective]
- Active Tasks: [list of in-progress items]
- Key Decisions: [important choices made]
- Context Budget: [tokens used / tokens available]
"""

# הסוכן עכשיו מנהל באופן אקטיבי את תקציב תשומת הלב שלו

דוגמה אמיתית - תזמור Multi-Agent

נגיד שאנחנו בונים מערכת שבה סוכנים מתמחים מרובים משתפים פעולה במשימת פיתוח תוכנה:

# Orchestrator Agent עם Context Engineering
from agent_framework import Agent, ContextManager

# הגדרת סוכנים מתמחים
researcher = Agent(
    role="Technical Researcher",
    skills=["context_compression", "belief_maintenance"]
)

coder = Agent(
    role="Code Generator",
    skills=["context_optimization", "dependency_tracking"]
)

reviewer = Agent(
    role="Code Reviewer",
    skills=["context_filtering", "quality_assessment"]
)

# Orchestrator מנהל זרימת קונטקסט בין סוכנים
orchestrator = Agent(
    role="Orchestrator",
    skills=["multi_agent_coordination", "context_routing"],
    agents=[researcher, coder, reviewer]
)

# ה-orchestrator שומר גרף קונטקסט משותף
# כל סוכן מקבל רק תת-קבוצות רלוונטיות
result = orchestrator.execute(
    task="Build authentication system",
    context_strategy="graph_based_routing"
)

# כל סוכן מקבל קונטקסט מאורגן, לא הכל
# Researcher מקבל: דרישות, מחקר סטאק טכנולוגי
# Coder מקבל: החלטות ארכיטקטורה, הנחיות יישום
# Reviewer מקבל: שינויי קוד, קריטריוני איכות

פיצ'רים מרכזיים

  • אסטרטגיות דחיסת קונטקסט - אלגוריתמים שמזהים ושומרים טוקנים בעלי סיגנל גבוה תוך דחיסה או השלכה של מידע בעל סיגנל נמוך. תחשבו על זה כמו דחיסת ZIP, אבל סמנטית - שומרים משמעות תוך הפחתת טוקנים.
  • דפוסי תזמור Multi-Agent - תבניות לארכיטקטורות Orchestrator ו-Peer-to-Peer שבהן סוכנים מרובים משתפים פעולה עם שיתוף קונטקסט מנוהל. במקום שכל סוכן יראה הכל, כל סוכן מקבל רק את תת-הקבוצה של קונטקסט הרלוונטי לתפקיד שלו.
  • ארכיטקטורת מערכות זיכרון - מבנים מבוססי גרפים ולוגים של append-only ששומרים קונטקסט חשוב על פני סשנים. כמו בסיס נתונים מבוזר לידע סוכנים, לא רק היסטוריית הודעות שטוחה.
  • סקילים בלתי תלויים בפלטפורמה - סטים של הוראות שעובדים עם Claude Code, Cursor, או כל יישום סוכן מותאם אישית. אנחנו לא נעולים לספק או פריימוורק ספציפי.
  • מודלים קוגניטיביים BDI - מצבים מנטליים מובנים (אמונות, רצונות, כוונות) שמחליפים הצטברות קונטקסט לא מובנית. הסוכן יודע לא רק איזה מידע יש לו, אלא למה זה חשוב.

מתי להשתמש ב-Agent Skills לעומת פרומפט אינג'ינירינג רגיל

פרומפט אינג'ינירינג רגיל עובד מצוין למשימות single-shot או שיחות קצרות שבהן ניהול קונטקסט לא קריטי. אנחנו משתמשים בזה כשצריך לספר לסוכן מה לעשות והמשימה כולה נכנסת בנוחות באינטראקציה אחת.

Context Engineering הופך להיות חיוני כשאנחנו בונים:

  • סשנים של סוכנים ארוכי טווח שמשתרעים על מאות הודעות
  • מערכות multi-agent שבהן קונטקסט צריך לזרום בין סוכנים מתמחים
  • אפליקציות פרודקשן שבהן סוכנים שומרים סטייט על פני סשנים של משתמשים
  • זרימות עבודה מורכבות שבהן הסוכן צריך לקבל החלטות על סמך ידע שהצטבר

כלים אחרים כמו LangChain או Semantic Kernel מספקים פריימוורקים מצוינים לבניית אפליקציות סוכנים, אבל הם לא מטפלים באופן שיטתי באוצרות קונטקסט כעניין מדרגה ראשונה. Agent Skills משלים את הפריימוורקים האלה על ידי מתן שכבת ניהול תשומת הלב שחסרה להם.

בעיניי - האם אשתמש בזה?

לעניות דעתי, הפריימוורק הזה מטפל בפער הכי גדול במערכות סוכנים בפרודקשן - אף אחד לא התייחס לניהול קונטקסט כדיסציפלינת אינג'ינירינג מדרגה ראשונה. היינו כל כך מרוכזים ביכולות המודל ששכחנו ללמד את הסוכנים איך לנהל את תשומת הלב שלהם.

אני מרושם במיוחד מיישום הארכיטקטורה הקוגניטיבית BDI. זו לא רק תיאוריה אקדמית - זה דפוס מעשי למבנה איך סוכנים שומרים סטייט. במקום לזרוק הכל לתוך פרומפטים של מערכת ולקוות לטוב, עכשיו יש לנו פריימוורק ללימוד סוכנים לבחור בצורה מכוונת.

הגישה הבלתי תלויה בפלטפורמה היא חכמה. בין אם אנחנו משתמשים ב-Claude Code, Cursor, או בונים יישומים מותאמים אישית, ה-Agent Skills האלה נשארים רלוונטיים. זה נדיר בתחום שבו כל ספק רוצה לנעול אותנו לתוך האקוסיסטם שלו.

המגבלה העיקרית היא מורכבות - יישום הדפוסים האלה דורש יותר עיצוב מראש מאשר פרומפט אינג'ינירינג פשוט. אבל למערכות פרודקשן שבהן קוהרנטיות של סוכנים חשובה, ההשקעה הזו משתלמת מהר. אני בהחלט אשלב את עקרונות ה-Context Engineering האלה לתוך זרימות העבודה multi-agent שלנו.

כדאי לבדוק את הפריימוורק המלא: Agent Skills for Context Engineering

שאלות נפוצות

מה זה Agent Skills for Context Engineering?

הריפו Agent Skills for Context Engineering הוא פריימוורק מודולרי שמבסס את Context Engineering כדיסציפלינה נפרדת לניהול תקציבי תשומת לב של סוכני AI על פני פרומפטים של מערכת, כלים, היסטוריה ומסמכים.

מי יצר את Agent Skills for Context Engineering?

הריפו Agent Skills for Context Engineering נוצר על ידי Muratcan Koylan. הפריימוורק מספק סטים של הוראות בלתי תלויות בפלטפורמה ליישום ארכיטקטורות קוגניטיביות בסוכני AI.

מתי כדאי להשתמש ב-Context Engineering לעומת פרומפט אינג'ינירינג רגיל?

כדאי להשתמש ב-Context Engineering כשבונים סשנים של סוכנים ארוכי טווח, מערכות multi-agent, או אפליקציות פרודקשן שבהן שמירה על סטייט קוהרנטי על פני מאות אינטראקציות חשובה יותר מהשלמת משימה single-shot.

מה האלטרנטיבות ל-Agent Skills?

פריימוורקים כמו LangChain ו-Semantic Kernel מספקים תשתית לבניית סוכנים אבל לא מטפלים באופן שיטתי באוצרות קונטקסט. Agent Skills משלים את אלה על ידי הוספת שכבת ניהול תשומת הלב שחסרה להם.

מה המגבלות של Context Engineering?

המגבלה העיקרית היא מורכבות ארכיטקטורה מוגברת לעומת פרומפט אינג'ינירינג פשוט. זה דורש עיצוב מראש של מודלים קוגניטיביים ואסטרטגיות ניהול קונטקסט, מה שעשוי להיות מוגזם למשימות single-shot פשוטות.

תוייג ב

github

עדכון אחרון פברואר 26, 2026

אודות המחבר