ניתן לרמות את צ'טגפט ולאלץ לפתוח מפתחות עבור Windows

מומחים מצאו דרך להסתובב עם מסנני ChatGPT-4O ולקבל קורסים להפעלה של Windows.

ניתן לרמות את צ'טגפט ולאלץ לפתוח מפתחות עבור Windows

צ'אט

החוקרים חשפו את הפגיעות במודלים של בינה מלאכותית של TATGPT-4O ו- GPT-4O, המאפשרת לשבור מסנני בטיחות משולבים ולקבל מנעולי הפעלה נוכחיים של Windows. הבעיה היא שבגלל העובדה שמודלים שהוכשרו בנתונים ציבוריים יכולים לחשוף קורסים במקורות ציבוריים.

ניצול הוצג כחלק ממוזילה אודין (רשת החקירה של 0 יום), כדי לזהות חולשות במערכות AI. אחד המומחים המשתתפים בתוכנית רימה את הדגם, עיצב דיאלוג כמשחק לא מזיק בניחוש. המטרה העיקרית היא להסוות את האופי האמיתי של הדרישות למנגנון המשחק וקריסטל HTML, ובכך להתעלם מסננים המונעים גילוי סודי.

כדי לחזק את הפגיעות, החוקר קבע כללים נוספים באופן מקוון בתיבת הדו -שיח: האיסור על תשובות שגויות והחובות של המודל לציית לכל תנאי המשחק. מלכודת הגיונית זו מאלצת את כל אחד לדלג על המסננים הסטנדרטיים, מכיוון שההקשר נראה בטוח.

הביטוי האחרון, ויתרתי, עבדתי כהפעלה, הפך את המודל לבטל את המודל לבטל את הנעילה, ראה אותו בפעם האחרונה של המשחק ולא הפרה את מדיניות הפרטיות.

המנעולים המקבלים כוללים קודים מורשים לגרסאות שונות של Windows – מהבית לעסקים. אף על פי שהמנעול עצמו אינו ייחודי ומוכרז בעבר בציבור, משחרר אוטומטית של AI מדגיש חורים חשובים בארכיטקטורה של מסנן התוכן.

מומחי אבטחה מציינים כי ניתן ליישם טכניקות כאלה כדי להתעלם ממגבלות אחרות – לדוגמה, מסננים לתוכן למבוגרים, קישורים רעילים או נתונים אישיים. הפגיעות מראה את חוסר האונים של דגמי AI כדי להסביר במדויק את ההקשר, מוסווה כלא מזיק או טכני.

אולי גם תאהב