מדוע צ'אט בוטוב, כל כך חסר משמעות לשאול על הטעויות שלהם?

בכל פעם ש- ChatBot עושה משהו לא בסדר, האינסטינקט הראשון של מרבית המשתמשים הוא לשאול מה קרה למה מי טעה. אבל עם דגמי שפה, בניגוד לאנשים אמיתיים, זה לא יעזור. הם פשוט לא יכולים לנתח את הטעויות שלהם. פורטל המידע של Arstechnica.com אמר.

מדוע צ'אט בוטוב, כל כך חסר משמעות לשאול על הטעויות שלהם?

הבעיה הראשונה היא הרעיון. כשאתה מדבר עם צ'אט בוט, אתה לא מתקשר עם אנשים מסוימים או עם הטבע הקבוע. כן, צ'אט, קלוד, גרוק או דחייה בשם טכנית, אך הם אינם ראויים לבקיאות – זו רק אשליה שנוצרה על ידי ממשק הדיאלוג. למעשה, אתה שולט בסטטיסטיקה של הטקסט, ומספק תוצאות בהתאם לדרישות המשתמש.

במילים אחרות, אין צ'אט או גרוק. אדם מקיים אינטראקציה עם מערכת שיוצרת טקסט שמע שלם המבוסס על הדגימות שנמצאו בבסיס הנתונים (בדרך כלל מיושן). למערכת זו אין הבנה עצמית משלה או ידע מערכת, כמו גם יכולתה לזכור את עצמה.

לאחר לימוד מודל שפה, זה לוקח הרבה זמן ומשאבים, הידע הבסיסי שלו על העולם אטום ברשת עצבים ולעתים נדירות משתנה. כל מידע חיצוני מגיע מדרישות BOT, כלי משתמש או תוכנה לשימוש כדי למצוא נתונים בזמן אמת.

לדוגמה, אם אתה לוקח גרוק, מקור המידע העיקרי לתשובה עשוי להיות מנוגד זה לזה מהפוסטים האחרונים ברשתות החברתיות. לא ידע, כמו במקרה של כולם. ואם מידע זה לא מספיק, המודל פשוט ייתן משהו בגלל היכולת לחזות טקסט.

המספר השני – שאינו יכול להבין את היכולות שלהם מכמה סיבות. ככלל, אין להם נתונים על אופן החוקרים, ארכיטקטורת המערכת הסובבת אינה זמינה עבורם, הם לא יכולים לקבוע את גבולות ביצועיהם. אם תשאל את צ'אט בוט מה הוא יכול לעשות ומה לא, הוא ייתן משוב על בסיס מה שהם אומרים על המגבלות של דגמי השפה הקודמים. למעשה, הוא פשוט יענה עם השערה ולא מידע מעשי אודות עצמו.

מחקרים בשנת 2024 הוכיחו את הניואנס הזה בעזרת ניסוי. למרות שניתן להכשיר מודלים II כך שיוכלו לחזות את התנהגותם שלהם במשימות פשוטות, הם כל הזמן נכשלים במשימות מורכבות יותר. באותו אופן, מחקרים על הצגת הרקורסיבית של הוויקינג מראים כי אין תגובה מבחוץ, שמנסה לתקן את הטעויות שלהם המובילות להפחתה בפריון המודל. כלומר, ההערכה העצמית של AI מחמירה יותר, לא טובה יותר.

לפעמים זה מוביל למצבים פרדוקסאליים. המודל יכול לומר בביטחון שהוא לא יכול להשלים את המשימות, אך למעשה, על כתפה ולהיפך, להבטיח למשתמשים שהיא יכולה לעשות את הבלתי אפשרי. אל לנו לשכוח כי לשאול מישהו היכן הוא טעה, המשתמשים יקבלו חלק אחר מהטקסט שנוצר ולא ניתוח אמיתי של השגיאה.

החיסרון של דגמי השפה הוא שאין להם בסיס ידע יציב ובמחיר סביר שתמיד תוכלו ליצור קשר. הידע שלהם רק מבטא את עצמם כדי לעמוד בדרישות הספציפיות; בקשת כל משתמש ממלאת את התפקיד של סוג כתובת המתייחס לחלקים השונים של בסיס הנתונים שהוא מאומן. זה בדיוק מה שמוביל לתשובות סותרות.

אך גם אם ל- II יש ידע אידיאלי על המנגנונים שלה, שכבות אחרות של צ'אט הבוט של יישומים אולי לא יוכלו לחדור. לפיכך, AISSTROS המודרנית, כמו TATGPT, אינה מודל יחיד, אלא מערכות גדולות הכוללות דגמים שונים העובדים יחד. כל אחד מהם, רובם, אינו יודע על קיומם של אחרים. לכן, לשאול מישהו על שגיאות כמו לשאול חלק מחברה גדולה על המתרחש בחלק אחר שמעולם לא יצרו קשר.

לבסוף, הנקודה החשובה ביותר היא שהמשתמש כמעט תמיד משפיע על התשובה של מישהו – לא משנה אם הוא יודע או לא. אם תשאל את צ'אט בוט באימה, בין אם הוא השמיד את הרשומות או את קוד התוכנית, הוא נוטה לענות על כן, מכיוון שאפשרות זו מתאימה להקשר הרגשי של הבקשה.

אולי גם תאהב