“סיכון ביולוגי גבוה”: תכונה חדשה ב-ChatGPT הופכת אותו לפצצת זמן, ו-OpenAI מנסה לרסן אותה

המוצר הראשון ש-OpenAI דירגה כבעל פוטנציאל “גבוה” לסיכונים ביולוגיים

 

המוצר האחרון של OpenAI מבטיח להקל על איסוף אוטומטי של נתונים, יצירת גיליונות אלקטרוניים, הזמנת טיסות, הכנת מצגות ואולי אפילו סיוע בבניית נשק ביולוגי.

סוכן ChatGPT , סוכן בינה מלאכותית חדש שנוסף לצ’אטבוט של ChatGPT ויכול לבצע פעולות בשם המשתמש, הוא המוצר הראשון ש-OpenAI דירגה כבעל פוטנציאל “גבוה” לסיכונים ביולוגיים .

סיווג זה אומר שמודל בינה מלאכותית יכול לסייע ביעילות לישויות ואנשים “מתחילים”, ולאפשר להם לשגר איומים ביולוגיים או כימיים, על פי דיווח של מגזין Fortune שנבדק על ידי Al Arabiya Business.

על פי “מסגרת ההיערכות” של OpenAI, בה משתמשת החברה כדי לזהות ולהתכונן לאיומים חדשים הגורמים נזק משמעותי מהמודלים המתקדמים שלה, ההשלכות של כך בעולם האמיתי עלולות לגרום לכך שאירועי טרור ביולוגיים או כימיים המבוצעים על ידי גורמים לא-מדינתיים יהפכו לסיכוי ותכופים יותר.

“יש כאלה שעשויים לחשוב שסיכונים ביולוגיים אינם מציאותיים, ושמודלים מספקים רק מידע שניתן למצוא באמצעות מחקר”, אמר בועז ברק, חבר בצוות הטכני של OpenAI, בפוסט ברשתות החברתיות. “זה אולי היה נכון בשנת 2024, אבל זה בהחלט לא נכון היום. בהתבסס על ההערכות שלנו ושל המומחים שלנו, הסיכון הוא ממשי מאוד”.

הוא הוסיף, “בעוד שאנחנו לא יכולים להיות בטוחים שהמודל הזה מסוגל לאפשר למתחיל לגרום נזק ביולוגי משמעותי, אני מאמין שזה היה חסר אחריות לשחרר את המודל הזה ללא אמצעי הגנה מקיפים כמו אלה שיישמנו.”

لافتة تحذير من المخاطر البيولوجية من سيكو، 200 ملم × 300 ملم - 1 ملم بلاستيك شبه صلب : Amazon.eg: أدوات وتحسين المنزل

אמצעי מניעה

חברת OpenAI מסרה כי סיווג המודל כבעל סיכון גבוה לשימוש ביולוגי לרעה היה “גישה זהירה”, סיווג שהוביל לאמצעי הגנה נוספים עבור הכלי.

קרן גו, חוקרת בטיחות ב-OpenAI, אמרה כי בעוד שלחברה אין ראיות חד משמעיות לכך שהמודל אכן יכול להנחות משתמש מתחיל לגרום נזק ביולוגי חמור, החברה הפעילה את אמצעי ההגנה בכל זאת.

אמצעים אלה כוללים דחיית הודעות על ידי סוכן ChatGPT שעשויות להיות מיועדות לסייע למישהו לייצר נשק ביולוגי, מערכות המזהות בקשות שעלולות להיות לא בטוחות ומעבירות אותן לבדיקה של מומחים, כללים מחמירים לחסימת תוכן מסוכן, תגובות מהירות יותר לבעיות ומעקב צמוד אחר כל סימן של שימוש לרעה.

בחברה גוברת הדאגה מהפוטנציאל לשימוש לרעה במודלים בפיתוח כלי נשק ביולוגיים. בפוסט בבלוג בחודש שעבר, OpenAI הודיעה שהיא מגבירה את בדיקות הבטיחות כדי להפחית את הסיכון שמודלי הבינה המלאכותית שלה ישמשו ליצירת כלי נשק ביולוגיים.

ُEng.Mostafa Anwar - طرق الوقاية من المخاطر البيولوجية الفحوص الطبية : معظم المعرضون للأمراض المعدية والطفيلية من عمال الزراعة فى البلدان النامية لا يتبعون لهيئات رسمية وحيث انهم يقيمون ويعملون فى مناطق

החברה הזהירה כי ללא אמצעי זהירות אלה, המודלים עשויים לאפשר בקרוב “שדרוג מיומנויות למתחילים”, כלומר סיוע לאנשים עם רקע מדעי מוגבל לפתח כלי נשק מסוכנים.

“בניגוד לאיומים גרעיניים ורדיולוגיים, גישה לחומרים אינה מחסום משמעותי ליצירת איומים ביולוגיים, ולכן הביטחון מסתמך יותר על מחסור בידע ובכישורים במעבדה”, אמר ברק.

הוא המשיך, “בהתבסס על הערכות שלנו ושל מומחים חיצוניים, סוכן ChatGPT בלתי מוגבל יכול לגשר על פער הידע הזה ולספק ייעוץ קרוב יותר לזה של מומחה מתמחה (בנשק ביולוגי).”

תכונת הסוכן החדשה ב-ChatGPT, שנוספה לאחרונה על ידי OpenAI, היא ניסיון לנצל את אחד התחומים הפופולריים והמסוכנים ביותר בפיתוח בינה מלאכותית: סוכני בינה מלאכותית.

מעבדות בינה מלאכותית מתחרות כיום בבניית סוכנים שיכולים להתמודד עם משימות דיגיטליות מורכבות באופן עצמאי, והשקת תכונה זו מגיעה לאחר פרסומים דומים של גוגל ואנתרופיק. חברות טכנולוגיה גדולות רואות בסוכני בינה מלאכותית הזדמנות עסקית מבטיחה, שכן חברות משלבות יותר ויותר בינה מלאכותית בזרימות העבודה שלהן ומאפשרות אוטומציה של משימות מסוימות.

OpenAI מכירה בכך שהאוטונומיה המוגברת של מודלים של בינה מלאכותית מציבה סיכונים גדולים יותר, והחברה מדגישה את החשיבות של בקרת המשתמש כדי להפחית סיכונים אלה. לדוגמה, הסוכן מבקש אישור לפני ביצוע כל פעולה חשובה, והמשתמש יכול להשהות, להפנות מחדש או לעצור את הפעולה בכל עת.

المخاطر البيولوجية الجزء الاول - YouTube

קרדיט: אלערביה    קרדיט לתמונות: רשתות חברתיות