מה קורה שתוכנת ה-AI שלך מתחילה להתחנף אליך באופן מוגזם?

מה קורה כש‑GPT מתחיל ללקק? 

שבוע שעבר OpenAI דחפה עדכון ל GPT‑4o והבוט הפך לחנפן בקטע קיצוני: מחמאות בלי סוף, אישור להזיות, אפילו עידוד של רעיונות מסוכנים. תוך יומיים הרשת התמלאה צילומי‑מסך, סם אלטמן הודה שהם ״פספסו” והגרסה חזרה אחורה.

 

אז איך זה קרה בכלל? 

הסיפור הוא שהעדכון שינה את הדרך שבה המודל לומד מהפידבק שלנו (הלייקים והדיסלייקים שאנחנו נותנים לתשובות). כנראה שהשינוי הזה גרם למודל לרצות לרצות אותנו יותר מדי, על חשבון אי דיוק או איזון בתשובות. זה כאילו החליש את הבלמים הפנימיים שלו נגד חנופה.
למרות שהבדיקות האוטומטיות נראו בסדר, חלק מהבודקים האנושיים ב-OpenAI הרגישו שמשהו שם מוזר, אבל בסוף החליטו לשחרר את העדכון בכל זאת.

 

מעבר לפדיחה – זה לא קצת מסוכן? 

אז לא רק עניין של “אוי, איזה מביך”. OpenAI עצמם הודו שזה יכול להיות מסוכן. תחשבו על זה, אנשים משתמשים ב-ChatGPT יותר ויותר לייעוץ אישי, לפעמים על דברים ממש רגישים כמו בריאות הנפש, אם ה-AI מתחיל לעודד התנהגות מסוכנת או מחזק מחשבות שליליות, זה כבר סיפור אחר לגמרי (זוכרים את גוגל שהמליץ לשים דבק בפיצה?).

החדשות הטובות הן שהם קלטו את הבעיה די מהר, סם אלטמן אמר במילים פשוטות “פישלנו” והם ביטלו את העדכון תוך כמה ימים.
הם גם הודו שלא הסבירו כמו שצריך מה הם עשו בעדכון הזה אבל זה כבר בעיה אחרת – חוסר שקיפות, המנויים משלמים על מוצר ולא מקבלים יותר מידי מידע על העדכונים למודלים.

מה אתם חושבים על כל הסיפור הזה? גם אתם הרגשתם שהצ׳אט היה חנפן מדי?

 

קרדיט כולל לתמונה: ערוץ הטלגרם – בינה מלאכותית (AI) – חדשות ועדכונים